بایگانی دسته: آموزش پیشرفته Spss

مقاله نویسی

شاخص هاي برازش مدل معادلات ساختاري

شاخص هاي برازش مدل معادلات ساختاري

به طور کلی شاخص های برازش مدل در سه دسته اصلی برازش مدل، تطبیق مدل و اقتصاد مدل قرار می گیرند. در این نوشتار به معرفی اين شاخص ها می پردازیم.

 1- تعیین برازش مدل (پارامترها)

گاه حتی اگر معیار برازش کلی مدل بیانگر ساختاری قابل قبول باشد، برآورد پارامترهای منفرد در یک مدل می تواند فاقد معنا و مغهوم باشد. بنابراین تفسیر پارامترها در تحلیل هر مدل موضوعی با اهمیت است. در این باره گام های چهارگانه زیر پیشنهاد می شود :

1- بررسی کنید که آیا برآورد پارامترها دارای علامت مورد انتظار هستند یا خیر ؟

2- بررسی کنید که آیا برآورد پارامترها در دامنه تغییرات مورد نظر واقع می شوند یا خیر ؟

3- براورد پارامترها را برای تعیین معناداری آماری آن ها بررسی کنید.

4- عدم تفاوت سنجش بین گروهی را بوسیله برابر قرار دادن پارامترها (قیدها) در گروه های مختلف آزمون کنید و سپس مقایسه های نسبی را بین برآورد پارامترها انجام دهید.

بررسی برآورد پارامترهای اولیه نیز می تواند به تعیین نقص در مدل یا مدل بد تدوین شده کمک کند. در این مورد برآورد اولیه پارامترها به عنوان مقادیر اولیه مورد استفاده قرار می گیرند. به عنوان مثال در LISREL برآورد های اولیه حداقل مربعات دو مرحله با مقادیر آغازین تعریف شده توسط محقق جایگزین می شوند.

در مسیر برآورد پارامترها با مشکلات بسیاری ممکن است روبه رو شویم. گاه برآورد پارامترها مقادیر غیرممکنی را می گیرند، به عنوان مثال در مواردی که همبستگی بین متغیرها از عدد یک فراتر می رود چنین مشکلی پیش می آید. گاهی نیز مقادیر واریانس منفی بدست می آید.

علاوه براین ها داده های دورافتاده نیز می توانند برآورد پارامترها را تحت تأثیر قرار دهند. استفاده از حجم نمونه به اندازه کافی بزرگ و معرف های چندگانه برای هر متغیر پنهان، به عنوان راهکارهایی برای رسیدن به برآوردهای پایدار پارامترها پیشنهاد شده اند.

پس از آنکه این موضوعات مورد توجه قرار گرفتند تفسیر شاخص های اصلاح (آزمون های لاگرانژ و والد) و تغییرات بعدی در شاخص های برازش مدل می تواند آغاز شود.

اعتبار مدل بر اساس دو نیمه کردن نمونه مورد مطالعه و یا بررسی یک نمونه مستقل دیگر هنگامی که به مدل قابل قبول دست می یابیم، همواره باید مورد توجه باشد تا از پایداری برآورد پارامترها و اعتبار مدل اطمینان یابیم. علاوه براین ها خودگردان سازی نیز یک روش باز نمونه گیری را با استفاده از یک نمونه منفرد به کار می گیرد تا کارآمدی و دقت برآوردهای نمونه ای را آزمون کند.

آزمون های معناداری پارامترهای برآورد شده

آزمون های معناداری پارامترهای برآورد شده برای مدل های آشیان شده، شامل آزمون های نسبت درستنمایی(LR)، مضرب لاگرانژ(LM) و والد می باشد. پیش از آشنایی با هریک از این آزمون ها بایستی مفهوم مدل های آشیان شده را بیان نماییم.

مدل های آشیان شده

در یک مدل آشیان شده، یک ماتریس واریانس-کواریانس نمونه ای برای مدل اولیه با یک مدل مقید که در آن برآورد یک پارامتر برابر صفر قرار داده شده است مقایسه می شود. این روش با آزمون مدل های کامل در رگرسیون چندگانه قابل قیاس است.

در مدل سازی معادله ساختاری هدف تعیین معناداری تغییرات آماره کای دو برای مدل کامل است. در روش های برآورد حداقل مربعات تعمیم یافته، حداکثر درستنمایی و حداقل مربعات وزنی، این موضوع شامل تعیین معناداری آماره کای دو با یک درجه آزادی برای برآورد یک پارامتر منفرد است. بنابراین باید مقدار کاهش آماره کای دو برابر یا بیش از مقدار شاخص اصلاح برای برآورد پارامتری باشد که برابر صفر قرار داده شده است.

آزمون نسبت درستنمایی بین مدل های جایگزین برای بررسی تفاوت در مقادیر آماره کای دو بین مدل اولیه (کامل) و مدل مقید (اصلاح شده) در جایی که برآورد پارامتر برابر صفر قرار داده شده است امکان پذیر است. آمون نسبت درستنمایی براساس رابطه زیر محاسبه می شود :

آزمون مضرب لاگرانژ برازش یک مدل مقید را با مدلی با قید کمتر مقایسه کرده و در این مقایسه از ماتریسی مشابه ماتریس واریانس-کواریانس نمونه ای استفاده می کند. این آزمون پارامترهایی را نشان می دهد که لازم است به مدل افزوده شده یا در مدل به حساب آیند. محقق در این آزمون متغیری را برمی گزیند که بیشترین کاهش را در آماره کای دو را به دنبال دارد.  مضرب لاگرانژ دارای توزیع کای دو با درجه آزادی برابر با تفاوت درجات آزادی مدل های مقیدی است که با یکدیگر مقایسه می شوند.

در آزمون والد یک بردار 1*r از قیدها با نام (r(θ  در نظر می گیرد (برداری از پارامترهای انتخاب شده توسط محقق که برابر صفر قرار داده می شوند). اگر این بردار مقادیر بزرگتر از صفر را نشان دهد آنگاه مدل مقید یک مدل معتبر نیست. آماره والد نیز دارای توزیع کای دو با درجه آزادی برابر با تعداد قیدها در (r(θ  است. برخلاف آزمون نسبت درستنمایی هیچ یک از آماره های مضرب لاگرانژ و والد نیاز به برآوردهای جداگانه از قیدهای مدل های اولیه (کامل) و اصلاح شده (مقید) ندارند.

2- تطبيق مدل

با در نظر گرفتن نقشی که آماره کی دو در برازش مدل هایی با متغیرهای پنهان ایفا می کند، سه شاخص دیگر به عنوان روش هایی برای مقایسه مدل های جایگزین طرح می شوند : شاخص توکرلوییس (TLI)، شاخص برازش هنجارنشده (NNFI) یا هنجار شده (NFI) بنتلر بونت(1987) و شاخص برازش تطبیقی (CFI ).

این شاخص ها نوعا یک مدل پیشنهاد شده را با یک مدل صفر (مدل مستقل) مقایسه می کنند. توجه داشته باشید هر مدلی که پژوهشگر انتظار تفاوت مدل های جایگزین با آن را به عنوان یک مدل مبنایی داشته باشد، یک مدل صفر می باشد.

شاخص توکر-لوییس

این شاخص در ابتدا توسط توکر و لوییس(1973) برای تحلیل عاملی مطرح شد. اما سپس آن را برای مبحث مدل سازی معادله ساختاری توسعه دادند. این شاخص می تواند برای مقایسه مدل های جایگزین یا یک مدل پیشنهاد شده در مقابل مدل صفر به کار رود. مقدار این شاخص به کمک آماره کای دو به صورت زیر محاسبه می شود :

مقدار این شاخص بین 0 و 1 تغییر می کند. مقدار 0 نشان دهنده فقدان برازش و 1 بیانگر برازش کامل است.

شاخص برازش هنجار شده

شاخص برازش هنجار شده براساس تبدیل مقیاس کای دو ساخته شده و مقدار آن بین 0 و1 تغییر می کند. این شاخص برای مقایسه یک مدل مقید با مدل کامل بکار می رود وآماره معرفی شده برای آن به صورت زیر است :

شاخص برازش مقایسه ای

این شاخص که به عنوان شاخص برازش مقایسه ای بنتلر نیز نامیده می شود، برازش مدل موجود را با مدل صفری مقایسه می کند که در ان فرض شده است متغیرهای پنهان با یکدیگر ناهمبسته اند (مدل مستقل). در این روش با مقایسه ماتریس کواریانس پیش بینی شده براساس مدل و ماتریس کواریانس مشاهده شده در صد فقدان برازشی را که براساس حرکت از مدل صفر به مدل تعریف شده بوسیله محقق به حساب آمده است، تخمین می زند. به لحاظ معنا CFI مشابه NFI است که برای حجم نمونه اصلاح شده محاسبه شود. مقدارCFI نزدیک به 1 برازش بسیار خوب را نشان می دهد.

 3- شاخص های اقتصاد مدل

اقتصاد مدل

اقتصاد مدل به تعداد پارامترهای برآورد شده ای اشاره دارد که برای دستیابی به سطح خاصی از برازش مورد نیاز هستند. در این روش یک مدل فرامشخص با یک مدل مقید مقایسه می شود. شاخص هایی که در این زمینه مورد استفاده قرار می گیرند شامل کای اسکوئر هنجار شده (NC)، شاخص برازش مقتصد(PNFI,PCFI ) و معیار اطلاع آکائیک می باشند. این شاخص ها در واقع تعداد پارامترهایی را به حساب می آورد که برای رسیدن به مقدار خاصی از کای اسکوئر مورد نیاز است.

کای اسکوئر هنجار شده NC

پیش از معرفی این شاخص بایستی شاخص کای اسکوئر را معرفی نماییم.

کای اسکوئر

یک مقدار کای اسکوئر با درجه آزادی مشخص که به لجاظ آماری معنادار است، نشان می دهد که ماتریس های واریانس-کواریانس مشاهده شده و برآورد شده متفاوتند. به بیان دیگر محقق مایل به دستیابی به مقادیری از آماره کای دو است که کوچکتر از مقدار جدول کی دو باشد یعنی از نظر آماری معنادار نباشد.

سه روش برآورد برای محاسبه این آماره بکار برده می شود. روش حداکثر درستنمایی(ML)، حداقل مربعات تعمیم یافته(GLS) و حداقل مربعات غیر وزنی(ULS). هریک از این روش ها شرایط و همچنین مزایای خاص خود را دارا هستند. آماره کای دو از رابطه مقابل محاسبه می شود :

در این روابط t تعداد کل پارامترهای مستقل برآورد شده، n تعداد مشاهدات، p تعداد متغیرهای مشاهده شده و تحلیل شده و tr اثر ماتریس را نشان می دهند.

و اما در مورد شاخص کای دو هنجار شده، یورسکوگ (1969) پیشنهاد کرد که آماره کی دو به کمک درجه آزادی آن به منظور ارزیابی برازش مدل اصلاح شود. به این ترتیب می توان دو نوع از مدل های نامناسب را تعیین کرد : الف) مدلی که فرامشخص است. ب) مدلی که با داده های مشاهده شده برازش نداشته و نیاز به بهبود دارد. شاخص کای دو هنجار شده از تقسیم آماره کی دو بر درجه آزادی آن محاسبه می شود.

شاخص برازش مقتصد  PFI

شاخص برازش مقتصد به عنوان یکی از شاخص های برازش، اصلاح شده ی شاخص برازش هنجار شده می باشد. این شاخص تعداد درجات آزادی را به حساب می آورد که برای حصول سطح خاصی از برازش بکار می رود.شاخص های برازش مقتصد برای مقایسه مدل ها با درجات آزادی متفاوت مورد استفاده قرار گرفته و براساس رابطه زیر محاسبه می شود :

مقادیر مربوط به مدل تحت فرض صفر با عبارت null و مدل تحت فرض مقابل با  model  مشخص شده اند.

معیار اطلاع آکائیک

معیار اطلاع آکائیک برای مقایسه مدل هایی با تعداد متفاوتی از متغیرهای پنهان بکار می رود.

منبع

مقدمه ای بر مدل سازی معادله ساختاری ، نوشته رندال. ای. شوماخر و ریچارد.جی.لومکس/ ترجمه شده توسط دکتر وحید قاسمی/ انتشارات جامعه شناسان

برگرفته از سایت اطمینان شرق

پایان نامه نویسی مقاله نویسی

معرفي نرم افزار آموس يا اي موس (Amos)

نرم افزار Amos چیست؟

AMOS  مخفف عبارات Analysis of moment structures مي باشد. Amos را می توان یکی از موفق ترین نرم افزارهای کامپیوتری دانست که به طور خاص برای مدل سازی معادله ساختاری طراحی شده اند.

نرم افزار آموس (ايموسAmos ) نرم افزاري براي مدل سازي معادلات ساختاري  است که مدل سازی معادله ساختاری را به شیوه ای ترسیمی ارائه می دهد، به نحوی که می توان به سرعت مدل ها را تعریف کرد، محاسبات را انجام داد و در صورت نیاز آن ها را به سادگی اصلاح کرد.

هرچند هدف اصلی از طراحی این نرم افزار مدل سازی است اما قابلیت اجرای مجموعه ای از تحلیل های کمی و آماری معمول نیز بوسیله این نرم افزار وجود دارد. نرم افزار Amos توسط شرکت SPSS به بازار عرضه شده است و برای اجرا نیاز به حداقل 256 مگابایت RAM و  125 مگابایت فضای آزاد بر روی دیسک است.

مروری بر مقاله هایی که تحلیل داده های آن ها بر مبنای مدل سازی قرار دارد نشان می دهد که این برنامه به خوبی جای خود را در میان برنامه های کامپیوتری موجود در زمینه مدل سازی باز کرده و به سرعت استفاده از آن در حال گسترش است. با توجه به این که در حال حاضر به روز کردن و عرضه این نرم افزار توسط شرکت SPSS انجام می شود و این نرم افزار به همراه نگارش های 16 به بعد نرم افزار SPSS عرضه می شود، تا حدودی این انتظار وجود دارد که عمومیت استفاده از آن به تدریج به اندازه عمومیت استفاده از نرم افزار SPSS شود.

سفارش تحلیل داده های آماری برای پایان نامه و مقاله نویسی تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد. نرم افزار های کمی: SPSS- PLS – Amos نرم افزارهای کیفی: Maxquda- NVivo تعیین حجم نمونه با:Spss samplepower Mobile : 09102194672& 09143444846 Telegram: @abazizi E-mail: abazizi1392@gmail.com

Amos Graphics

استفاده از این نرم افزار به دو شیوه نوشتن برنامه به زبانVB.NET و همچنین استفاده از Amos Graphics امکان پذیر است. استفاده از هریک از روش های ذکر شده به لحاظ کار بر روی انواع مدل ها، استفاده از انواع شیوه های برآورد پارامترها و یا محاسبه انواع شاخص های برازندگی و اخذ خروجی های مختلف، مشابه یکدیگر است اما در عین حال استفاده از  Amos Graphics تاحدودی ساده تر از برنامه نویسی است چرا که استفاده از آن برمبنای ترسیم مدل تدوین شده توسط پژوهشگر قرار دارد.

مدل نظری پژوهش در مقایسه با مدل مدون در Amos

به منظور استفاده از نرم افزار Amos بایستی به تفاوت های بین مدل های تعریف شده در Amos و مدل نظری توجه داشته باشیم. مدل نظری مدلی است که پژوهشگر با توجه به مبانی و چارچوب نظری مدل تعریف کرده است. این مدل عمدتا شامل متغیرهای پنهان، معرف های مرتبط و همچنین روابط بین آن ها می باشد. در مدل نظری پژوهشگر تعریف می کند که متغیرهای پنهان قرار است با کدام معرف ها اندازه گیری شوند و اینکه متغیرهای پنهان (و احتمالا برخی متغیرهای آشکار) چگونه با یکدیگر ارتباط داشته و یا یکدیگر را تحت تأثیر قرار می دهند. مدل مدون در ایموس گرافیکس (Amos Graphics) ضمن آن که همه اجزای تعریف شده در مدل نظری پژوهش را داراست، دارای اجزای جدیدی است که برای کار با Amos وجود این اجزا یا عناصر جدید ضرورت دارد.

جزئیات بیشتر هنگام کار با Amos Graphics معمولا شامل تعریف متغیرهای خطا (خطاهای اندازه گیری و خطاهای تبیین شده یا ساختاری) و همچنین تعریف متغیرهای مرجع است.تعریف متغیر مرجع به این مسئله برمی گردد که متغیرهای پنهان  موجود در مدل فاقد ریشه و واحد اندازه گیری هستند.

برای حل بدون مقیاس بودن متغیرهای پنهان دو راه وجود دارد :

  1. استاندارد در نظر گرفتن متغیر پنهان (متغیری با میانگین صفر و انحراف معیار 1) که برای این منظور لازم است واریانس متغیر پنهان برابر 1 قرار داده شود.
  2. قرار دادن ریشه و واحد اندازه گیری یکی از متغیرهای مشاهده شده مرتبط با متغیر پنهان به عنوان ریشه و واحد اندازه گیری همان متغیر پنهان. در این حالت به متغیر مشاهده شده اصطلاحا متغیر مرجع یا معرف نشان گذار گفته می شود.

آنچه در مدل سازی معمول است استفاد از روش دوم می باشد هرچند استفاده از روش اول نیز منجر به نتایج مشابهی در برآورد پارامترها می شود. لازم به ذکر است که متغیرهای پنهان موجود در مدل (به عبارت دیگر متغیرهایی که فاقد مقیاس اندازه گیری اند) خود به دو دسته اصلی تقسیم می شوند :

الف– متغیرهای خطا که شامل خطای اندازه گیری در مدل های اندازه گیری و خطاهای تبیین در مدل ساختاری اند. این متغیرها اساسا متغیرهای پنهانی هستند که اندازه گیری نشده اند، مدل را تحت تأثیر قرار می دهند ولی در مدل نظری پژوهش حضور نداشته اند.

ب– متغیرهای پنهان درمدل ساختاری که هرکدام با مجموعه ای از متغیرهای مشاهده شده اندازه گیری خواهند شد.

مراحل اجرایی کار با Amos Graphics

به طور خلاصه چهار مرحله اجرایی زیر را برای کار با Amos Graphics  می توان نام برد:

الف. تهیه فایل داده ها با SPSS
ب. ترسیم مدل تدوین شده در صفحه میانجی.
ج. مشخص کردن جزئیات تحلیل شامل موارد مورد نیاز در خروجی وتغییر شیوه برآورد پارامترها(درصورت لزوم)
د. انجام تحلیل و برآورد پارامترها.

حال به توضيح هر کدام مي پردازيم:

الف .تهیه فایل داده های ورودی

فایل داده ها با استفاده از نرم افزار SPSS  و به سه شکل زیر تهیه می شود:

  1. فایل حاوی داده های خام
  2. فایل حاوی ماتریس واریانس-کواریانس برگرفته از داده های خام
  3. فایل حاوی ماتریس همبستگی، میانگین و انحراف معیارها برگرفته ازداده های خام

مراحل تهیه ماتریس همبستگی تا حد زیادی به تهیه فایل در قالب واریانس-کواریانس شباهت دارد اما با این حال توجه به تفاوت های آن ها نیز ضرورت دارد. یکی از مهمترین این تفاوت ها این است که در صورت تدارک داده های گردآوری شده در قالب ماتریس همبستگی ضرورت دارد که میانگی ها و انحراف معیارهای متغیرها نیز در فایل وارد شوند تا امکان برآورد پارامترها به صورت غیراستاندارد نیز فراهم شود. درحالیکه با وجود ماتریس واریانس-کواریانس امکان برآوردهای استاندارد و غیراستاندارد وجود دارد.

ب. ترسیم مدل تدوین شده در Amos Graphics

Amos Graphics  یک جعبه ابزار متنوع در اختیار کاربر قرار می دهد که با استفاده از آن ها می توان مدل تدوین شده را با کلیه جزئیات آن ترسیم کرد بلکه امکانات مختلفی را برای اجرای تحلیل و مشاهده خروجی ها در اختیار قرار می دهد. توضیح این نکته لازم است که جعله ابزار قابل مدیریت است به نحوی که می توان نشانه هایی را به آن افزوده یا از آن کم کرد.

ج. مشخص کردن جزئیات تحلیل

پس از تدارک داده ها و ترسیم مدل لازم است قبل از اجرای تحلیل برخی از جزئیات آن مشخص شوند. چنین جزئیاتی می توانند موارد متنوعی را در برگیرند اما توجه به دو نکته لازم است :

  1. تعیین مواردی که مایل هستید علاوه بر موارد پیش فرض در خروجی گزارش شوند. مانند گزارش برآوردهای استاندارد علاوه بر برآوردهای غیراستاندارد در مدل.
  2. تعیین روش برآورد پارامترها. به طور پیش فرض روش حداکثر درستنمایی برای این منظور تعریف شده است.

د. اجرای تحلیل و برآورد پارامترها

اجرای تحلیل و برآورد پارامترها را می توان آخرین مرحله در اجرای اولیه دانست. پس از اجرای اولیه تحلیل و برآورد پارامترها و شاخص های مختلف برازش و همچنین وارسی سایر خروجی ها درباره تغییر، پژوهشگر می تواند درباره تغییر و اصلاح مدل تصمیم گیری نماید.

منبع

مدل سازی معادله ساختاری در پژوهش های اجتماعی با کاربرد Amos / نوشته دکتر وحید قاسمی / انتشارات جامعه شناسان.

برگرفته از سایت اطمینان شرق

مقاله نویسی

مدل معادلات ساختاری (Structural Equation Modeling) — مفاهیم، روش‌ها و کاربردها

مدل معادلات ساختاری (Structural Equation Modeling) — مفاهیم، روش‌ها و کاربردها

«مدل معادلات ساختاری» (Structural Equation Modeling)،‌ ابزاری قدرتمند در تحلیل‌های چند متغیره آماری محسوب می‌شود. این روش که به اختصار SEM نیز نامیده می‌شود، از روش‌هایی که در تحلیل چند متغیره وجود دارد در حالت خاص استفاده کرده و مدل‌هایی مناسب برای داده‌هایی مربوط به تحقیقات کیفی ارائه می‌دهد.

 کاربرد مدل معادلات ساختاری

در SEM از مفاهیم ساده‌ای مانند واریانس و کوواریانس به عنوان معیارهایی برای اندازه‌گیری پراکندگی یا وابستگی بین متغیرها استفاده کرده و مدل مناسب با داده‌ها با کمترین متغیر یا ایجاد متغیرهای جدید، تولید می‌شود.

از کاربردهای مهم مدل معادلات ساختاری می‌توان به موارد زیر اشاره کرد:

  1. «تحلیل مسیر» (Path Analysis) یا مدلی که  رابطه بین متغیرها را نشان می‌دهد.
  2. «تحلیل عاملی تاییدی» (Confirmatory Factor Analysis) که شبیه تحلیل عاملی است و آزمون‌های مربوط به وزن عامل (ضریب هر عامل) و همبستگی درونی را انجام می‌دهد.
  3. «تحلیل عاملی مرتبه دوم» (Second Order Factor Analysis) که در آن ماتریس همبستگی عوامل، خود قابل تجزیه به عوامل دیگری است که «عوامل ثانویه» (Second Order Factors) خوانده می‌شوند.
  4. «مدل تحلیل رگرسیونی» (Regression Models)،‌ که از رگرسیونی خطی استفاده کرده و با منظور تخصیص وزن به هر یک از متغیرها، مدل کمترین مربعات خطا را می‌سازد.
  5. «مدل ساختار کوواریانس» (Covariance Structure Models) که به بررسی ساختار و شکل ماتریس کوواریانس می‌پردازد و در مورد آن آزمون فرض انجام می‌دهد.
  6. «مدل ساختار همبستگی» (Correlation Structure Models)، که آزمون‌های فرض مربوط به ساختار ماتریس همبستگی را محاسبه می‌کند.

با توجه به گزینه‌هایی زیادی که معادلات ساختاری با آن مواجه است، تفکیک و تعریف دقیق آن به آسانی میسر نیست. آنچه اهمیت دارد، ابزارهایی است که SEM از آن‌ها بهره می‌گیرد.

شیوه به کارگیری مدل معادلات ساختاری

ایده اصلی در مدل معادلات ساختاری، تاثیر عمل جمع و ضرب روی اعداد است. همانطور که در مطلب مربوط به مباحث میانگین و واریانس خوانده‌اید، می‌دانیم که اگر همه مقدارها در یک عدد ثابت (مثل k) ضرب شوند، میانگین آن‌ها هم در همان مقدار ضرب خواهد شد. یعنی اگر داشته باشیم y=kx�=��، آنگاه خواهیم داشت ¯¯¯y=k¯¯¯x�¯=��¯. همچنین واریانس اعداد تبدیل یافته نیز در k2�2 ضرب خواهد شد یعنی می‌توان نوشت:

σ2y=k2σ2x��2=�2��2.

بر این اساس برای انحراف استاندارد داده‌های تبدیل شده هم رابطه زیر برقرار است:

sy=|k|sx��=|�|��

نکته‌ای که در اینجا به کار می‌آید، آن است که فرض کنید بین Y و X یک رابطه خطی به صورت Y=4X وجود دارد. در نتیجه واریانس Y باید ۱۶ برابر واریانس X باشد. با تصور معکوس این حالت می‌توان با مقایسه واریانس Yها با ۱۶ برابر واریانس Xها، آزمون مربوط مناسب بودن مدل Y=4X را با توجه به داده‌ها انجام داد.

این ایده را می‌توان برای چندین متغیر همبسته در گروهی از مدل‌های خطی به کار بست. هرچند در این حالت تعداد محاسبات و مدل‌های انتخابی زیاد هستند ولی اساس کار به همان شکل خواهد بود.

«بررسی وجود رابطه خطی بین متغیرها را می‌توان به بررسی واریانس و کووریانس آن‌ها تبدیل کرد.»

روش‌های آماری مختلفی برای بررسی چنین کاری وجود دارد که ساختار «ماتریس واریانس-کوواریانس» (Variance-Covariance Matrix) را تحلیل می‌کنند. به این ترتیب روش SEM طی مراحل زیر اجرا می‌شود:

  1. متغیرهایی مرتبط و همبسته در مدل معرفی می‌شوند. این کار ممکن است بوسیله یک دیاگرام مسیر انجام شود.
  2. براساس داده‌ها مشخص می‌شود که چه مقدار از رابطه بین متغیرها از طریق واریانس و کوواریانس متغیرها قابل تجزیه و تحلیل است.
  3. به کمک آزمون فرض مشخص می‌شود که مدل انتخابی در بخش ۱ به چه میزان از لحاظ آماری بامعنا (Statistical Significant) است.
  4. نتایج حاصل از آزمون فرض آماری و ضرایب یا پارامترهای مدل مشخص می‌شود.
  5. براساس این اطلاعات، مشخص می‌شود که آیا داده‌ها توسط مدل قابل تفسیر هستند یا باید به معرفی مدل یا متغیرهای جدید دست زد.

هرچند محاسبات مربوط به روند SEM پیچیده و طولانی است ولی امروزه برنامه‌های زیادی به منظور انجام چنین محاسباتی موجود است. ولی آنچه حائز اهمیت محسوب می‌شود الگویی است که در انجام تحلیل SEM وجود دارد. برای راحتی کار مراحل بالا را در نمودار گردشی زیر می‌بینید.

SEM diagram

باید توجه داشت که هرگز بهترین مدل برای داده‌ها را نمی‌توان بوجود آورد. البته اگر برای داده‌های موجود بهترین مدل ساخته شود برای داده‌های جدید ممکن است مدل ایجاد شده مناسب نباشد. در این حالت مدل را «بیش‌برازش» (Overfitting) می‌نامند زیرا با در نظر گرفتن بیشترین تعداد متغیر در طراحی مدل، داده‌های موجود توسط مدل حفظ و رابطه‌شان به طور مصنوعی ایجاد شده است. همیشه رابطه‌های معرفی شده توسط مدل‌های آماری، تقریبی از مدل واقعی رابطه بین متغیرها هستند. زیرا براساس یک نمونه آماری از جامعه ساخته شده‌اند. بنابراین بهتر است به جای اصطلاح «بهترین برازش» (Best Fit) از «مناسب‌ترین برازش» (Good Fit) استفاده کنیم.https://beta.kaprila.com/a//templates_ver2/templates.php?ref=blog.faradars&id=string-1&t=string&w=760&h=140&background=fffff3&cid=2995531,2305,1012&wr=special,brother,brother&pid=54

نمودار مسیر و SEM

به منظور معرفی مدل در SEM از الگویی به نام «نمودار مسیر» (Path Diagram) استفاده می‌شود. این نمودار شبیه یک «نمودار گردش» (Flow Chart) است که در آن متغیرهای مرتبط بوسیله خطوطی در آن به یکدیگر متصل می‌شوند.

برای مثال فرض کنید که رابطه رگرسیونی خطی بین دو متغیر X و Y وجود دارد. یعنی داریم Y=aX+e که در آن a پارامتر مدل و e نیز خطای مدل محسوب می‌شوند. برای نمایش این رابطه در نمودار مسیر از شکل زیر استفاده می‌کنیم.

sem path diagram

در این نمودار، همه متغیرهای مستقل در سمت چپ قرار دارند. متغیر مربوط به خطا نیز معرفی شده است. با توجه به میزان خطا در برآورد رابطه خطی بین دو متغیر X و Y متغیر دیگری که نقش مزاحم را دارد در مدل با E‌ دیده می‌شود. با مشخص شدن پارامترهای مدل برای هر متغیر مستقل، ضریب آن متغیر روی خط ارتباطی با متغیر وابسته دیده خواهد شد. این ضریب در صورتی که داده‌‌ها استاندارد شده باشند، می‌تواند به عنوان میزان اهمیت این متغیر در پیش‌بینی متغیر وابسته در نظر گرفته شود.

در هنگام معرفی مدل، ممکن است «متغیرهای پنهان» (Latent Variable) نیز در آن ایجاد شود. متغیر پنهان،‌ بدون آنکه در مرحله جمع‌آوری داده‌ها به عنوان یک متغیر تعریف شده باشد، به علت وجود رابطه بین متغیرهای مستقل ممکن است،‌ توسط روند SEM معرفی شود.

مثلا در بررسی قیمت خودرو با توجه به ویژگی‌هایی آن ممکن است حجم موتور، قدرت موتور و مصرف سوخت به عنوان متغیرهای مستقل اندازه‌گیری شده باشند ولی در واقعیت متوجه شویم که بین آن‌ها رابطه شدیدی وجود دارد و عملا به کارگیری آن‌ها در مدل رگرسیونی مناسب نیست. بنابراین ترکیبی خطی از آن‌ها را به عنوان متغیر پنهان که از ابتدا قابل اندازه‌گیری نبوده است در مدل اضافه می‌کنیم.

ویژگی موتوری=a × حجم موتور+b × قدرت موتور+c× مصرف سوخت

همچنین عامل دیگری به نام راحتی خودرو که به متغیرهای حجم اتاق و حجم صندوق عقب وابسته است، به عنوان یک متغیر پنهان دیگر در مدل حضور یابد.

راحتی خودرو=d × حجم اتاق+e × حجم صندوق عقب

این عوامل باعث می‌شوند که بین مولفه‌های جدید به عنوان متغیرهای پنهان کمترین وابستگی وجود داشته باشد و مدل حاصل از آن‌ها از اعتبار بیشتری برخوردار خواهد بود.

محاسبات مربوط به معادلات ساختاری در اغلب موارد در نرم‌افزارهای آماری AMOS یا نرم‌افزار لیزرل (LISREL) صورت می‌گیرد.

برگرفته از سایت فرادرس

پایان نامه نویسی مقاله نویسی

مقدار T-Value و مقدار P-Value در آزمون فرض آماری چیست؟

مقدار T-Value و مقدار P-Value در آزمون فرض آماری چیست؟

1- مفدمه بر آزمون فرض آماری

مطابق با الزامات استانداردهای ISO 15189:2022 و ISO/IEC 17025:2017 آزمایشگاه باید یک روش‌ اجرایی برای پایش اعتبار نتایج، داشته باشد.

داده‌های به دست آمده باید به نحوی ثبت شوند که روند آن‌ها قابل تشخیص باشد.

در جایی که قابل اجرا است از فنون آماری در بازنگری نتایج استفاده شود.

در بسیاری از مراکز آزمایشگاهی از آزمونهای فرض آماری برای کنترل کیفیت نتایج آزمون، تحلیل نتایج مقایسات بین آزمایشگاهی و یا صحه گذاری روشهای آزمون برای برآوزده‌سازی الزامات استاندارد ایزو 17025 و استاندارد ایزو 15189 استفاده می‌شود.

اگر کارکنان آزمایشگاه و یا پژوهشگران با علم آمار آشنایی نداشته باشند و به دنبال استفاده از از نرم افزارهای آماری مانند minitab, spss و … برای تجزیه و تحلیل نتایج خود باشند، در مواجه با خروجی‌های این نرم افزارها احساسی شبیه احساس آلیس در سرزمین عجایب را پیدا خواهند کرد.

ناگهان آنها با یک دنیا فانتزی که در آن عبارات عجیب و مرموزی وجود دارد، روبه رو می‌شوند.

به عنوان مثال ظهور مقادیر T و P را در انجام آزمون فرض t-test را در نظر بگیرید.

در مشاهد این خروجی شما ممکن است بسیار متعجب شوید!!

نتایج آزمون T-TEST یک طرفه

این مقادیر واقعاً چیست؟

آنها از کجا بدست آمده‌اند؟

حتی اگر شما از مقدار P-value برای تفسیر آماری نتایج خود به دفعات بسیار زیاد استفاده کرده باشید، باز هم ممکن است منشا واقعی آن ممکن هنوز برای شما گنگ باشد.

2- مقادیر P value و t-value در آزمون T-Test

مقدار P value و مقدار t-value به طور جدایی ناپذیری با هم مرتبط است.

آنها به صورت خیلی مشابه در کنار هم نتایج تجزیه و تحلیل آماری ظاهر می‌شوند. 

هنگامی که شما آزمون t-test را انجام می‌دهید، معمولا برای پیدا کردن شواهدی از یک اختلاف معنی داری در میان دو جمعیت (۲-sample t) و یا بین یک جمعیت مقدار هدف (۱-sample t) هستید.

به عنوان مثال در مقایسه بین آزمایشگاهی به دنبال آن هستیم که ببینم نتایج بدست آمده در دو آزمایشگاه مختلف بر روی یک نمونه یکسان بایکدیگر اختلاف معناداری دارند یا نه؟

مقدار t اندازه تفاوت را نسبت به تغییرپذیری بدست آمده از نمونه‌ها را می‌سنجد.

 به عبارت دیگر، T برابر با تفاوت محاسبه شده تقسیم بر خطای استاندارد (SE MEAN) است.

هر چه مقدار T (چه در جهت مثبت و چه در جهت منفی) بزرگتر باشد احتمال بیشتری برای رد فرض صفر به وجود خواهد آمد  و هر چه مقدار T به صفر نزدیکتر باشد احتمال بیشتری برای پذیرش فرض صفر وجود خواهد داشت. (فرض صفر یعنی تفاوت معنی‌داری وجود ندارد.)

بخاطر داشته باشید که مقدار t که در خروجی نرم افزار نشان داده شده است بر اساس تنها یک نمونه که به صورت تصادفی از کل جمعیت گرفته شده، محاسبه می گردد و اگر نمونه‌برداری تصادفی را مجدداً انجام دهید ممکن است مقدار  t کمی متفاوت از آنچه قبلا محاسبه کرده‌اید، بدست آید.

حال این سئوال مطرح می‌شود که در بسیاری از نمونه های که به صورت تصادفی از یک جمعیت یکسان گرفته می‌شود، چقدر تفاوت در مقدار t انتظار داریم که به وجود آید؟

 و چگونه مقدار t بدست آمده از داده های مربوط به نمونه خود را نسبت به مقدار t مورد انتظار مقایسه کنیم؟

این کار را می‌توان با رسم یک توزیع t انجام داد.


3- استفاده از یک تابع توزیع t برای محاسبه احتمال

به عنوان مثال فرض کنید که با استفاده از یک آزمون فرض آماری به روش ۱-sample t-test  می خواهید تعیین کنید که یک ویژگی در جمعیت مورد مطالعه بزرگتر از یک مقدار مشخص می‌باشد یا خیر؟

در این مثال مقدار مشخص ۵ در نظر گرفته شده که از یک نمونه با ۲۰ مشاهده بدست آمده است.

همانطور که در شکل بالا نشان داده شده مقدار t‌ در خروجی نرم افزار minitab برابر با ۲٫۸ بدست آمده است.

لذا می‌خواهیم ببینم در یک تابع توزیع T با درجه آزادی ۱۹ (درجه آزادی برابر است با تعداد مشاهدات منهای یک) احتمال آنکه مقدار t‌ برابر با ۲٫۸ شود چقدر است. 

برای انجام این کار از نرم افزار minitab ‌می توان استفاده نمود بدین منظور در این نرم افزار  مسیر زیر را طی می کنیم:

In Minitab, choose Graph > Probability Distribution Plot.

Select View Probability, then click OK.

From Distribution, select t.

In Degrees of freedom, enter ۱۹.

Click Shaded Area. Select X Value. Select Right Tail.

 In X Value, enter 2.8 (the t-value), then click OK.

بیشترین مقدار مورد انتظار برای t محلی است که قله گراف بالا قرار دارد (یعنی مقدار صفر).  این بدان معنا است که در بیشتر واقع انتظار می‌رود که مقدار t=0 شود.

علت این امر آن است که وقتی یک نمونه به صورت تصادفی از یک جامعه برداشته می شود انتظار می رود که اختلافی بین میانگین نمونه با میانگین جامعه وجود نداشته باشد یعنی به احتمال زیاد اختلاف بین میانگین نمونه و میانگین جامعه نزدیک به صفر است.


4- مجاسبه مقدار T-Value و مقدار P-Value

احتمال اینکه مقدار T-value (چه در جهت مثبت و چه در جهت منفی) در آزمونهای فرض آماری مقدار بزرگی شود خیلی کم است. یعنی آنکه هر چه از مقدار صفر در هر دو جهت دور می شویم احتمال رخداد چنین وضعیتی به صورت طبیعی کاهش می یابد. به عنوان مثال ناحیه قرمز مشخص شده در منحی فوق احتمال اینکه مقدار T-Value برابر با ۲٫۸  و بیشتر از آن باشد را نشان می‌دهد. احتمال این امر  ۰٫۰۰۵۷۱۲ محاسبه شده است که اگر آن را گرد کنیم برابر با ۰٫۰۰۶ می شود که به این مقدار P-Value گفته می شود.

به عبارت دیگر، احتمال به دست آوردن T-Value برابر با ۲٫۸ و یا بالاتر، زمانی که نمونه برداری از جمعیت یکسان (در مثال، یک جمعیت با میانگین ۵ در نظر گرفته شده)، حدود ۰٫۰۰۶ است.

چقدر احتمال این رخ داد وجود دارد؟ این رخداد مثل آن است که در برداشت تصادفی از ۵۲ برگ در بازی پوکر ۲ برگ تک پشت سر هم به دست شما برسد. شناس چنین رخدادی بسیار کم است!!

poker_picture

این امر که این نمونه‌ از جامعه‌ی با میانگین بیشتری از مقدار مشخص شده (در این مثال ۵) باشند، محتمل تر است.  بعبارت دیگر: از آنجا که مقدار P-value بسیار کوچک تر از (< alpha level)  است، شما فرض صفر رد و نتیجه گیری است که تفاوت معنی داری وجود دارد.

مقادیر T و P به طور جدایی ناپذیری مرتبط هستند و به سادگی می‌توانید از آنها برای تصمیم در خصوص درست یا نادرست بودن یک فرض استفاده کنید. مقدار یکی از آنها بدون تغییر در دیگری، تغییر نخواهد کرد. مقادیر بزرگتر قدرمطلق T-Value منجر به مقادیر کوچکتر P-value می‌شود که امر سبب کاهش احتمال پذیرش فرض صفر می‌شود. به طور  معمول مطالعات آماری در سطح اطمینان ۹۵% (یعنی آلفای برابر با ۰٫۰۵) انچام می‌شود.

در سطح اطمینان ۹۵% اگر P-value  کوچکتر یا مساوی ۰٫۰۵ باشد فرض صفر را رد می‌کنند و در غیر این صورت فرض صفر را نمی توان رد کرد. 


5- سخن پایانی

نکته آخر اینکه که در برخی از نرم افزارها مانند spss مقدار p-value در جدول های خروجی نرم افزار تحت عنوان Significant Level ذکر می‌شود. در این پست آموزشی برخی از نکات مهم برای در خصوص آزمون فرض T-TEST و مقدار P-Value ذکر شود.

برگرفته از سایت دکتر دستمردی

آموزش پیشرفته sPSS

نمره گذاری متغیر ها در Spss جمع نمرات یا میانگین نمرات؟

نمره گذاری متغیر ها در Spss جمع نمرات یا میانگین نمرات؟

پس از جمع آوری داده ها با استفاده از ابزارهای پژوهشی مانند پرسشنامه ، مصاحبه و … و وارد کردن داده های خام به نرم افزار spss نوبت به تعریف نمره متغیر ها و ابعاد آن ها می رسد.

در تعریف عملیاتی و حساب کردن نمره؟ی متغیر ها دو رویکرد وجود دارد.

رویکرد اول می گوید فقط نمره ی سولات جمع بشود و با جمع نمرات سوالات مربوط به هر متغیر نمره ی آن متغیر یا ابعاد حساب شود.

بعضی از استادید بنا به نظرات خود این رویکردرا قبول می کنند.

رویکرد دوم می گوید بعد از جمع نمره سوالات ، نمره ی بدست آمده تقسیم بر تعداد سوالات بشود تا مثلاً نمرات مطابق طیف لیکرت بشوند.

بعضی از اساتید رویکرد دومی را قبول دارند.

ولی در اصل تفاوتی بین آن ها نیست و هر دو روش درستند و در آزمون فرضیه هیچ فرقی با هم نخواهند داشت.

بنده معتقدم روش دومی بهتر است چون راحت تر میشه میانگین ها را با هم مقایسه کرد.

البته اگر درجه بندی ها مثل هم باشد!

نظر شما چیست؟

برای نمره گذاری متغیرها در spss پیشنهاد می شود فیلم زیر را مشاهده نمایید.

با تشکر از نظرات ارزشمند کاربران محترم.

تحلیل داده های آماری

نحوه نوشتن فصل چهارم پایان نامه و تحلیل داده ها

نحوه نوشتن فصل چهارم پایان نامه و تحلیل داده ها

برای نگارش هر فصل پایان‌نامه ، نکات و دستوراتی وجود دارد که دانشجویان باید از آن‌ها مطلع باشند و با رعایت اصول و استانداردها، پایان‌نامه‌ای باکیفیت بنویسند.

یکی از مراحل مهم انجام پایان‌نامه نحوه تحلیل داده‌های جمع آوری شده است که  در فصل چهارم پایان‌نامه است و اینکه چگونه فصل چهارم پایان‌نامه را بنویسیم..

فصل 4  و 5 پایان نامه در واقع مانند مرحله برداشت کشاورز از محصول کاشته شده است. پس نحوه ی انجام این دو فصل بسیار مهم و البته نیاز به کار تخصصی دارد.

ما در سایت روا20 سعی می‌کنیم نحوه نوشتن فصل چهارم پایان‌نامه را توضیح دهیم و به نکات مهم آن اشاره کنیم.

به ویژه شما را با نرم افزارهای تخصصی آماری آشنا خواهیم کرد.

فصل چهارم هر پایان‌نامه‌ای معمولا به نتایج به دست آمده از تجزیه و تحلیل داده‌ها اختصاص دارد و نحوه تحلیل داده‌ها در فصل چهارم پایان‌نامه به درک مباحث، مفاهیم و مسائل مطرح‌شده در پایان‌نامه بسیار کمک می‌کند، به همین دلیل ارائه آمارهای دقیق و صحیح در آنالیز داده‌های پایان نامه مهم است.

 نگارش محتوای فصل چهارم پایان‌نامه به ترتیب شامل طرح اجمالی مسئله، ارائه آمارهای دقیق و تجزیه و تحلیل نتایج آن‌هاست.

بدین ترتیب، مانند همه فصول پایان‌نامه، فصل چهارم را نیز با نوشتن مقدمه‌ای کوتاه و شفاف آغاز می‌کنیم.

در مقدمه بهتر است موضوع و مسئله اصلی و اهداف پایان‌نامه را به طور بسیار مختصر مرور کنیم.

 پس از آن باید داده‌های آماری حاصل از روش‌های مختلف تحقیقات خود را بررسی کنیم و به ارزیابی دقیق تک‌تک آن‌ها بپردازیم.

 توصیف مشاهدات، متغیرها و آمارها، تحلیل نتایج به دست ‌آمده از پرسشنامه‌ها، آزمایش‌ها و مصاحبه‌ها و همچنین تشریح دستاوردهای مطالعات گسترده و گوناگون ما در حوزه پژوهش از عمده‌ترین مراحل این کار است که در نهایت، نتایج حاصل از آنالیز همه داده‌ها و اطلاعات منجر به پذیرش یا رد فرضیه‌های مطرح‌شده در تحقیقات پایان‌نامه و طرح پرسش‌ها و پاسخ‌های آن‌ها می‌شود.

 در واقع، فصل چهارم پایان‌نامه موجب اعتبار و ارزشمندی پژوهش می‌شود و در موفقیت دانشجو در پروژه تحقیقاتی‌اش نقشی اساسی دارد.

نکته قابل توجه این است که در فصل چهارم صرفا به بررسی و تحلیل کمی و کیفی کامل و شفاف داده‌ها پرداخته می‌شود و تفسیر آن‌ها در فصل بعد انجام خواهد شد.

نحوه تحلیل داده‌ها در فصل چهارم پایان‌نامه

همان‌طور که می‌دانید، پیش از تجزیه و تحلیل داده‌ها لازم است آن‌ها را با دقت ارزیابی کنیم تا از صحت‌شان مطمئن شویم. سپس نوبت به دسته‌بندی و مرتب کردن اطلاعات گردآوری ‌شده می‌رسد؛ باید داده‌هایی را که با یکدیگر همخوانی دارند و مربوط به یک موضوع مشترک می‌شوند، در یک دسته قرار داد و داده‌های تکراری، نامربوط و اضافه را حذف کرد؛ برای منسجم‌تر شدن اطلاعات می‌توان آن‌ها را کدگذاری کرد؛ همچنین می‌توان از انواع نمودارها برای نمایش بهتر آمارها استفاده کرد.

بر اساس اینکه نوع داده های جمع آوری شده کمی یا کیفی باشند جهت گیری تحلیل آن ها متفاوت خواهد بود.

پس به طور کلی سه روش  تحلیل داده ها را داریم:

الف : روش تحلیل داده های کمی

ب روش تحلیل داده های کیفی

ج- روش آمیخته

تجزیه و تحلیل آماری داده های کمی  با دو روش آمار توصیفی و آمار استنباطی انجام می‌شود؛ در روش آمار توصیفی معمولا از جداول توزیع فراوانی، درصد فراوانی و میانگین، ترسیم نمودار، محاسبه شاخص‌های مرکزی، شاخص‌های پراکندگی، شاخص‌های چولگی، شاخص‌های کشیدگی، محاسبه همبستگی و رگراسیون و پیش‌بینی و نرم‌افزارهایی دقیق، سریع و کاربردی  نظیر SPSS برای پردازش اطلاعات استفاده می‌شود.

 پژوهشگران در روش آمار استنباطی با تعمیم نتایج به دست‌ آمده از محاسبات اولیه آماری به جامعه آماری بزرگ‌تر به آنالیز داده‌ها می‌پردازند تا به نتیجه برسند.

در این روش استفاده از آزمون‌های پارامتریک و ناپارامتریک نیز مرسوم است؛ به آزمون‌هایی که در سطح مقیاس فاصله‌ای و نسبی به تجزیه و تحلیل داده‌ها می‌پردازند و شاخص آماری آن‌ها میانگین و واریانس است و به پیش‌فرض توزیع جامعه نرمال نیاز دارند، پارامتریک گفته می‌شود و آزمون‌هایی که در سطح مقیاس اسمی و رتبه‌ای آنالیز می‌کنند و شاخص آماری آن‌ها میانه و نماست و به هیچ فرضی درباره توزیع نیاز ندارند، ناپارامتریک نامیده می‌شوند.

از انواع نرم‌افزارهای معروف و خوب برای تجزیه و تحلیل آماری داده های کمی  در پایان‌نامه می‌توان نرم‌افزارهای زیر را نام برد:

نرم‌افزار SPSS، نرم‌افزار اکسل، نرم‌افزار Amos، نرم‌افزار Liserel، نرم‌افزار PLS، نرم‌افزار R، نرم‌افزار Eviews و… که همه این برنامه‌ها قابلیت ذخیره اطلاعات و کشف اختلافات مهم احتمالی بین گروه‌ها و ارتباط میان متغیرها و همچنین نمایش داده‌های گردآوری شده به شکل نمودار و جدول را دارند.

ب روش تحلیل داده های کیفی

در این روش معمولا به دسته بندی و مقوله بندی مطالب پرداخته می شود

و طی سه مرحله کدگذاری باز، محوری و گزینشی مقوله ها و مضمون های اصلی شناسایی می شوند.

از انواع نرم‌افزارهای معروف و خوب برای تجزیه و تحلیل آماری داده های کیفی  می‌توان نرم‌افزارهای زیر را نام برد:

مکس کیو دا  Maxqda : انویو Nvivo ، اطلس Atlas

ج- روش آمیخته: در روش آمیخته ابتدا با روش های کیفی به مقوله بندی مفاهیم پرداخته می شود سپس با نرم افزار های کمی که در بالا اشاره شد به اعتبار سنجی آن ها پرداخته می شود.

همان‌طور که اشاره شد، استفاده از نرم‌افزارهای آماری برای آنالیز اطلاعات در ارائه تصویری روشن و شفاف از دستاوردهای پژوهش کاملا ضروری است، اما برای بهره بردن از کمک این نرم‌افزارهای آماری لازم است پژوهشگر بر آن‌ها مسلط باشد.

 قطعا داشتن دانش کافی نسبت به پیچیدگی‌های این نوع نرم‌افزارها و مهارت در کار کردن با ابزارهای تخصصی‌شان به آنالیز سریع و صحیح داده‌ها منجر خواهد شد؛ بنابراین اگر دانشجویی تخصص و شناخت لازم از نرم‌افزاری را ندارد، بهتر است از متخصصان  آماری کمک بگیرد و این بخش را برون‌سپاری کند.

اما نکته بسیار مهم دیگر که باید به آن توجه کنید این است که کسی که کار آماری را برای شما انجام می دهد باید با انواع نرم افزار های کمی و کیفی آشنا باشد.

چون قطعا هر یک از این نرم افزار ها نقاط ضعف و قوت خاصی دارند و هر یک برای کار ویژه ای ساخته شده اند.

اگر آماریست فقط با یک نرم افزار آشنایی داشته باشد حوزه ی دید وی بسیار محدود خواهد بود و دچار نوعی جزم اندیشی (دُگماتیسم ) خواهد بود.

پس قبل از انتخاب آماریست یا شرکت آماری از آن ها سوال کنید که تحلیل داده ها را با چه نرم افزارهایی آنجام می دهند.

اگر توانستند با چندین نرم افزار آماری کار کنند می توانید مطمئن باشید که بعدا دچار مشکل نخواهید شد.

چون اگر فرضیه های شما با یک نرم افزار قابل آزمون نبود می توانند با نرم افزار دیگری آن را برای شما تحلیل کنند.

اگر از شرکت های آماری خدمات می گیرید هم تأکید کنید کسی که کار آماری شما را انجام می دهد با انواع نرم افزار های کمی و کیفی آشنا باشد. در غیر اینصورت این شرکت ها هر قسمت از کارتان را به یک فرد می دهند و در نهایت کارتان انسجام نخواهد داشت.

در هر صورت صلاح مملکت خویش را خسروان دانند، اما بازهم تأکید می کنیم در این زمینه دقت و وسواس خاصی داشته باشید.

تحلیل داده های آماری(فصل 4 پایان نامه)، مقاله و …

سفارش تحلیل داده های آماری برای پایان نامه و مقاله و …

تحلیل داده های آماری پایان نامه ، مقاله و …  با کم ترین هزینه و بالاترین کیفیت انجام می گیرید.

تحلیل داده های کمی  با نرم افزارهای SPSS- PLS – Amos و

تحلیل داده ای کیفی با نرم افزارهای کیفی Maxquda و انویو Nvivoانجام می گیرد.

قیمت تحلیل ها بسیار پایین و پایین تر از هر جای دیگر است

و بسته به نوع و میزان کار معمولا بین 400 هزار تا 1 میلیون تومان خواهد بود. توجه کنیداین قیمت در جاهای دیگر بین حداقل 2 تا 3 میلیون می باشد. ما در اینجا فقط برای رعایت حال دانشجویان و شرایط سخت اقتصادی این قیمت ها را در نظر گرفته ایم. در حالی که کار ما با بالاترین کیفیت و پشتیبانی عالی انجام می گیرد.

البته تحلیل هایی که کار کم تری دارند با قیمت کمتر انجام می گیرد 

جهت سفارش با یکی از روش های زیر تماس بگیرید: 

تماس با شماره موبایل 09143444846 یا ارسال اس ام اس یا پیام از طریق واتساپ و  تلگرام 

یا اینکه به ایمیل  abazizi1392@gmail.com پیام بفرستید. یا اینکه فرم زیر را تکمیل کنید تا با شما تماس بگیریم. 

  • تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.
  • نرم افزار های کمی: SPSS- PLS – Amos
  • نرم افزار کیفی: Maxquda – Nvivo
  • تعیین حجم نمونه با:Spss samplepower
  • لازم است به نکات ذیل توجه فرمائید:

1- گزارش تحلیل (فصل 4 پایان نامه ) در قالب فایل ورد (Word ) ارائه می شود.

2- خروجی نرم افزار و داده های تحلیل شده در اختیار تان قرار داده می شود.

3- در صورت پیشنهاد استاد راهنما  یا نظر خود محقق تحلیل بر اساس نظر آن ها انجام می گیرد.

4- در صورتی که تحلیل مورد تایید استاد راهنما ، مشاور و … قرار نگیرد ، بر اساس نظر آن ها اصلاح  و اصلاحیه در اختیار محقق قرار می گیرد.

5- سعی می شود تحلیل در اسرع وقت و حداقل زمان ممکن در اختیار محقق قرار بگیرد.

6- فعلاً تحلیل ها فقط با نرم افزارهای ذکر شده در بالا انجام خواهد شد.

  •   ازیکی روش های زیر با ما تماس بگیرید.
  • Mobile : 09143444846
  • Telegram: @abazizi
  • E-mail: abazizi1392@gmail.com
  • از طریق واتساپ به شماره   09143444846 پیام بفرستید. همچنین از طریق شبکه های اجتماعی به ویژه ایتا یا تلگرام یا واتساپ  پیام بفرستید. 

از کار ما مطمئن باشید .

آموزش پیشرفته sPSS

تحلیل عاملی اکتشافی در spss

تحلیل عاملی اکتشافی در SPSS یک روش آماری پیشرفته برای شناسایی ساختار درونی یک مجموعه داده‌ها و کاهش ابعاد آن است.

مراحل انجام تحلیل عاملی اکتشافی در SPSS:

  1. ابتدا باید متغیرهای موردنظر برای تحلیل را در SPSS وارد کرد.
  2. از منوی Analyzeگزینه Factor را انتخاب کنید.
  3. در کادر باز شده متغیرهای موردنظر را به صورت ستونی در قسمت Variables وارد کنید.
  4. روش استخراج عامل‌ها را مشخص کنید. معمولا از روش Principal Component Analysis استفاده می‌شود.
  5. معیارهای قطع عامل‌ها مانند مقدار ویژه بزرگتر از 1 واریانس تبیین شده و نمودار سنگریزه‌ای را مشخص کنید.
  6. چرخش عامل‌ها را انجام دهید. معمولا از چرخش Varimax استفاده می‌شود.
  7. جدول factor loading را مشاهده کنید. متغیرهایی که بار عاملی بالاتری دارند مهم‌تر هستند.
  8. پایایی عامل‌ها را با آلفای کرونباخ بررسی کنید.
  9. نتایج را تفسیر و گزارش کنید.

درنهایت با تحلیل عاملی می‌توان ساختار درونی داده‌ها و روابط بین متغیرها را شناسایی کرد.

برگرفته از : سرگرمی روز

تحلیل عاملی تاییدی چیست؟

تحلیل عاملی تاییدی چیست؟

تحلیل عاملی تاییدی (Confirmatory Factor Analysis) یک روش آماری است که به کمک آن می‌توان به تأیید یا رد فرضیاتی درباره ساختار عاملی متغیرها پرداخت. در این روش، فرضیات محدوده‌ای از ساختار عاملی متغیرها پیشنهاد می‌شود و سپس اطلاعات موجود در داده‌ها جهت بررسی صحت این فرضیات استفاده می‌شود.

در تحلیل عاملی تاییدی، یک مدل ساختاری از پیش تعریف شده است و سپس با استفاده از روش‌های آماری، فرضیاتی درباره ساختار عاملی مورد بررسی قرار می‌گیرد. سپس با استفاده از معیارهایی مانند chi-square، comparative fit index (CFI)، root mean square error of approximation (RMSEA) و …، صحت مدل ساختاری مورد بررسی ارزیابی می‌شود. اگر مدل ساختاری با داده‌ها مطابقت داشته باشد، می‌توان ادعا کرد که فرضیاتی که در ابتدا پیشنهاد شده بود، به خوبی تأیید شده است.

تحلیل عاملی تاییدی معمولاً برای بررسی فرضیات پژوهشی، سنجش سازوکارهای پنهان و تعیین پایایی و اعتبار پرسشنامه‌ها و مقیاس‌های روان‌شناسی استفاده می‌شود. این روش در پژوهش‌های با مقیاس بزرگ و پیچیده، که شامل بسیاری از متغیرها و عوامل هستند، بسیار مفید است.

در کل، تحلیل عاملی تاییدی به عنوان یک ابزار قدرتمند در تحقیقات روان‌شناسی و دیگر علوم اجتماعی برای تأیید یا رد فرضیاتی درباره ساختار عاملی متغیرها و تعیین پایایی و اعتبار پرسشنامه‌ها و مقیاس‌ها استفاده می‌شود.

برای مشاهده لیست همه ی  پرسشنامه های استاندارد لطفا همین جا روی پرسشنامه استاندارد  کلیک فرمایید.

تحلیل داده های آماری برای پایان نامه و مقاله نویسی ،تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.نرم افزار های کمی: SPSS- PLS – Amosنرم افزار کیفی: Maxqudaتعیین حجم نمونه با:Spss samplepower

روش های تماس:Mobile :  09143444846  واتساپ – تلگرام کانال

تلگرام سایت: برای عضویت در کانال تلگرام سایت اینجا کلیک کنید(البته قبلش فیلتر شکن روشن شود!!) مطالب جالب علمی و آموزشی در این کانال درج می گردد.

آزمون فریدمن (Friedman Test)

آزمون فریدمن (Friedman Test) نوعی آزمون رتبه‌بندی غیرپارامتری است که برای مقایسه‌ی سه یا بیشتر گروه در یک متغیر کیفی مستقل با دو یا بیشتر گروه در یک متغیر وابسته به کار می‌رود.

 این آزمون از رتبه‌بندی داده‌ها برای تشخیص تفاوت معنادار بین گروه‌ها استفاده می‌کند

. آزمون فریدمن ابتدا داده‌ها را به صورت رتبه‌بندی می‌کند و سپس میزان تفاوت بین گروه‌ها را با استفاده از رتبه‌بندی‌ها محاسبه می‌کند.

 اگر تفاوت معناداری بین گروه‌ها وجود داشته باشد، آنگاه آزمون فریدمن نتیجه‌ی مثبت می‌دهد.

توضیحی در باره رتبه بندی و آزمون فریدمن:

و فقط رتبه یا ترتیب داده‌ها مهم است. برای مثال، در یک آزمایش بالینی که سه گروه بیمار داریم و برای هر بیمار امتیازی بر اساس شدت بیماری به آن‌ها داده شده است، می‌توان امتیازها را به رتبه‌هایی تبدیل کرد. در اینجا، اگر بیشترین امتیاز به بیماری شدت داشته باشد، به عنوان رتبه‌ی 1 انتخاب می‌شود و بیماری که کمترین امتیاز را داشته باشد، به عنوان رتبه‌ی 3 انتخاب می‌شود.

آزمون فریدمن برای تحلیل داده‌های رتبه‌بندی شده به کار می‌رود.

این آزمون با استفاده از رتبه‌بندی‌ها، تفاوت معنادار بین سه یا بیشتر گروه را بررسی می‌کند. این آزمون ابتدا مجموع رتبه‌ها را برای هر گروه محاسبه می‌کند و سپس میانگین مجموع رتبه‌ها را برای هر گروه محاسبه می‌کند.

سپس با استفاده از فرمول مناسب، میزان تفاوت معنادار بین گروه‌ها محاسبه می‌شود. اگر این میزان تفاوت معنادار باشد، نتیجه مثبت داده شده و بیانگر این است که تفاوت معناداری بین گروه‌ها وجود دارد.

در نهایت، برای تعیین گروهی که با دیگر گروه‌ها تفاوت معنادار دارد، می‌توان از روش‌هایی مانند تحلیل پست‌ها (Post-hoc analysis) مانند آزمون Dunn-Bonferroni استفاده کرد.

مراحل انجام آزمون فریدمن به شرح زیر است:

فرضیه‌ها: اولین قدم در انجام آزمون فریدمن تعیین فرضیه‌های لازم است. فرض صفر در این آزمون این است که میانگین رتبه‌ها برای تمامی گروه‌ها یکسان است. فرض دیگر در این آزمون فرض آلترناتیو است که بیانگر این است که حداقل یکی از میانگین رتبه‌ها با دیگری متفاوت است.

جمع‌آوری داده‌ها: برای انجام آزمون فریدمن، باید داده‌های مربوط به متغیرهایی که قصد بررسی آن‌ها را دارید، را جمع‌آوری کنید. برای هر گروه، باید رتبه‌بندی شده‌ای از داده‌ها را داشته باشید.

محاسبه آماره آزمون: پس از جمع‌آوری داده‌ها، باید آماره آزمون را محاسبه کنید. این آماره با استفاده از فرمول زیر محاسبه می‌شود:

$X^2 = \frac{12}{n (k + 1)} \sum_{j=1}^k R_j^2 – 3(n+1)$

در این فرمول، $n$ تعداد رکوردها در هر گروه و $k$ تعداد گروه‌هاست. $R_j$ نیز میانگین رتبه گروه $j$ است.

محاسبه مقدار p-value: با توجه به آماره آزمون محاسبه شده، باید مقدار p-value را محاسبه کنید. برای این کار، باید از جدول توزیع کای-مردانژ استفاده کنید.

تفسیر نتایج: پس از محاسبه مقدار p-value، باید آن را با سطح معناداری مشخص شده مقایسه کنید. اگر مقدار p-value کمتر از سطح معناداری باشد، فرض صفر رد می‌شود و می‌توان نتیجه گرفت که میانگین رتبه‌ها برای حداقل یکی از گروه‌ها با گروه دیگری متفاوت است.

محاسبه تفاوت رتبه‌ها (اختیاری): در صورتی که آزمون فریدمن نتایج مثبت داشته باشد، می‌توان از طریق آزمون تفاوت رتبه‌های ویلکاکسون، تعیین کرد که کدام گروه‌ها با یکدیگر متفاوت هستند. این آزمون برای مقایسه دو به دوی میانگین رتبه‌ها بین گروه‌ها استفاده می‌شود.

آزمون فریدمن و توزیع نرمال:

آزمون فریدمن یک آزمون غیرپارامتری است و برای داده‌هایی با توزیع نرمال یا هر توزیع پارامتری دیگری مناسب نیست. برای داده‌هایی که توزیع آن‌ها پارامتری است، از آزمون‌های دیگری مانند آزمون تی یا آنالیز واریانس (ANOVA) استفاده می‌شود.

آزمون فریدمن برای داده‌هایی که توزیع آن‌ها ناشناخته است و یا توزیع آن‌ها پارامتری نیست، مناسب است. به عنوان مثال، اگر داده‌ها رتبه‌بندی شده باشند یا توزیع آن‌ها نامتقارن باشد، آزمون فریدمن را می‌توان برای تحلیل آن‌ها به کار برد.

آزمون فریدمن در SPSS:

در نرم‌افزار SPSS نیز می‌توان از آزمون فریدمن برای تحلیل داده‌های رتبه‌بندی شده استفاده کرد. برای انجام این آزمون در SPSS، مراحل زیر را می‌توانید دنبال کنید:

وارد کردن داده‌ها: ابتدا داده‌های رتبه‌بندی شده خود را در SPSS وارد کنید.

انتخاب آزمون: از منوی “Analyze” گزینه “Nonparametric Tests” را انتخاب کرده و سپس گزینه “K Independent Samples” را انتخاب کنید.

تنظیمات آزمون: در پنجره‌ی باز شده، متغیر رتبه‌بندی شده را به عنوان متغیر وابسته و متغیر دسته‌ای را به عنوان متغیر مستقل انتخاب کنید. سپس آزمون فریدمن را انتخاب کنید.

تنظیمات دیگر آزمون: پنجره‌ی تنظیمات دیگر آزمون را باز کرده و مقدار آلفا و تنظیمات دیگر را مطابق با نیاز خود تنظیم کنید.

نتایج آزمون: پس از اجرای آزمون، نتایج آن در صفحه‌ی نتایج SPSS قابل مشاهده هستند. در بخش “Test Statistics”، مقدار آماری آزمون فریدمن، در بخش “Asymptotic Sig. (2-tailed)” مشخص می‌شود. اگر مقدار آماری کمتر از سطح معناداری قرار داده شده باشد، می‌توان نتیجه گرفت که تفاوت معناداری بین گروه‌ها وجود دارد.

برای مشاهده لیست همه ی  پرسشنامه های استاندارد لطفا همین جا روی پرسشنامه استاندارد  کلیک فرمایید.

تحلیل داده های آماری برای پایان نامه و مقاله نویسی ،تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.نرم افزار های کمی: SPSS- PLS – Amosنرم افزار کیفی: Maxqudaتعیین حجم نمونه با:Spss samplepower

روش های تماس:Mobile :  09143444846  واتساپ – تلگرامکانال تلگرام سایت: برای عضویت در کانال تلگرام سایت اینجا کلیک کنید(البته قبلش فیلتر شکن روشن شود!!) مطالب جالب علمی و آموزشی در این کانال درج می گردد.

کتاب آموزش تصویری نمونه گیری با SPSS Sample Power

 دانلود کتاب آموزش تصویری نمونه گیری با SPSS Sample Power (برای اولین بار در ایران)

 دانلود کتاب آموزش تصویری نمونه گیری با SPSS Sample Power (برای اولین بار در ایران)

کتاب-آموزش-تصویری-نمونه-گیری-با-SPSS-Sample-Power.jpg

مبحث حجم نمونه و نحوه محاسبه آن یکی از مباحث بسیار کلیدی در تحقیقات است .

معمولاً محققین در این خصوص سوالات بسیاری دارند.

اکثر پژوهشگران در تعیین حجم نمونه دچار اشکالی اساسی هستند.

چون معمولاً برای تعیین حجم نمونه از فرمول کوکران یا جدول کرجسی و مورگان استفاده می کنند.

با توجه به اینکه این فرمول ها بر اساس پارامتر نسبت طراحی شده اند در بسیاری از مورد کاربرد ندارند.

لذا محققان در دفاع از پایان نامه یا پذیرش مقاله در مجلات معتبر علمی دچار درد سر بزرگ می کند.

برای حل این مشکل باید از نرم افزار های تعیین حجم نمونه مانند IBM SPSS Sample power بهره گرفت.

کتاب تصویری نمونه گیری با SPSS Sample Power این نرم افزار را به صورتی ساده با ارائه مثال های کاربردی آموزش می دهد.

برای هر نمونه از فرضیه ها یک نمونه کاربردی آورده شده است.

بعد از مطالعه این کتاب افراد قادر خواهند بود به راحتی نمونه ی آماری خود را با این نرم افزار تعیین کنند.

بعد از پرداخت هزینه می توانید آن را مستقیما دانلود نمایید یا اینکه با یکی از روش های زیر با ما تماس بگیرید تا خدمتتان ارسال گردد.

توجه: فروش نسخه ی الکترونیکی این کتاب فقط در این سایت ارائه می شود و ارائه آن در هر سایت یا کانال دیگری ممنوع می باشد و پیگرد قانونی دارد.

دانلود رایگان صفحات اولیه (فهرست مطالب) و مشخصات کتاب