بایگانی دسته: آموزش نرم افزار آماری

مفاهیم اساسی در آمار

مفاهیم اساسی در آمار

آمار در دو شاخه آمار توصیفی و احتمالات و آمار استنباطی بحث و بررسی می شود. احتمالات و تئوریهای احتمال اساسا از دایره بحث ما خارج است. همچنین آمار توصیفی مانند فراوانی، میانگین، واریانس و … نیز مفروض در نظر گرفته شده اند.

۱- آمار استنباطی و آمار توصیفی

در یک پژوهش جهت بررسی و توصیف ویژگیهای عمومی پاسخ دهندگان از روش های موجود در آمار توصیفی مانند جداول توزیع فراوانی، در صد فراوانی، درصد فراوانی تجمعی و میانگین استفاده میگردد. بنابراین هدف آمار توصیفی یا descriptive محاسبه پارامترهای جامعه با استفاده از سرشماری تمامی عناصر جامعه است.

در آمار استنباطی یا inferential پژوهشگر با استفاده مقادیر نمونه آماره ها را محاسبه کرده و سپس با کمک تخمین و یا آزمون فرض آماری، آماره ها را به پارامترهای جامعه تعمیم می دهد.برای تجزیه و تحلیل داده ها و آزمون فرضیه های پژوهش از روش های آمار استنباطی استفاده می شود.

پارامتر شاخص بدست آمده از جامعه آماری با استفاده از سرشماری است و شاخص بدست آمده از یک نمونه n تائی از جامعه آماره نامیده می شود. برای مثال میانگین جامعه یا µ یک پارامتر مهم جامعه است. چون میانگین جامعه همیشه در دسترس نیست به همین خاطر از میانگین نمونه یا که آماره برآورد کننده پارامتر µ است در بسیاری موارد استفاده می شود.

۲- آزمون آماری و تخمین آماری

در یک مقاله پژوهشی یا یک پایان نامه باید سوال پژوهش یا فرضیه پژوهش مطرح شود. اگر تحقیق از نوع سوالی و صرفا حاوی پرسش درباره پارامتر باشد، برای پاسخ به سوالات از تخمین آماری استفاده می شود و اگر حاوی فرضیه ها بوده و از مرحله سوال گذر کرده باشد، آزمون فرضیه ها و فنون آماری آن به کار می رود.

هر نوع تخمین یا آزمون فرض آماری با تعیین صحیح آماره پژوهش شروع می شود. سپس باید توزیع آماره مشخص شود. براساس توزیع آماره آزمون با استفاده از داده های بدست آمده از نمونه محاسبه شده آماره آزمون محاسبه می شود. سپس مقدار بحرانی با توجه به سطح خطا و نوع توزیع از جداول مندرج در پیوست های کتاب آماری محاسبه می شود. در نهایت با مقایسه آماره محاسبه شده و مقدار بحرانی سوال یا فرضیه تحقیق بررسی و نتایج تحلیل می شود. در ادامه این بحث موشکافی می شود.

۳- آزمون های آماری پارامتریک و ناپارامتریک

آمار پارامتریک مستلزم پیش فرضهائی در مورد جامعه ای که از آن نمونه گیری صورت گرفته می باشد. به عنوان مهمترین پیش فرض در آمار پارامترک فرض می شود که توزیع جامعه نرمال است اما آمار ناپارامتریک مستلزم هیچگونه فرضی در مورد توزیع نیست. به همین خاطر بسیاری از تحقیقات علوم انسانی که با مقیاس های کیفی سنجیده شده و فاقد توزیع (Free of distribution) هستند از شاخصهای آمارا ناپارامتریک استفاده می کنند.

فنون آمار پارامتریک شدیداً تحت تاثیر مقیاس سنجش متغیرها و توزیع آماری جامعه است. اگر متغیرها از نوع اسمی و ترتیبی بوده حتما از روشهای ناپارامتریک استفاده می شود. اگر متغیرها از نوع فاصله ای و نسبی باشند در صورتیکه فرض شود توزیع آماری جامعه نرمال یا بهنجار است از روشهای پارامتریک استفاده می شود در غیراینصورت از روشهای ناپارامتریک استفاده می شود.

۳- خلاصه آزمونهای پارامتریک

آزمون t تک نمونه : برای آزمون فرض پیرامون میانگین یک جامعه استفاده می شود. در بیشتر پژوهش هائی که با مقیاس لیکرت انجام می شوند جهت بررسی فرضیه های پژوهش و تحلیل سوالات تخصصی مربوط به آنها از این آزمون استفاده می شود.

آزمون t وابسته : برای آزمون فرض پیرامون دو میانگین از یک جامعه استفاده می شود. برای مثال اختلاف میانگین رضایت کارکنان یک سازمان قبل و بعد از تغییر مدیریت یا زمانی که نمرات یک کلاس با پیش آزمون و پس آزمون سنجش می شود.

آزمون t دو نمونه مستقل: جهت مقایسه میانگین دو جامعه استفاده می شود. در آزمون t برای دو نمونه مستقل فرض می شود واریانس دو جامعه برابر است. برای نمونه به منظور بررسی معنی دار بودن تفاوت میانگین نمره نظرات پاسخ دهندگان بر اساس جنسیت در خصوص هر یک از فرضیه های پژوهش استفاده میشود.

آزمون t ولچ: این آزمون نیز مانند آزمون t دو نمونه جهت مقایسه میانگین دو جامعه استفاده می شود. در آزمون t ولچ فرض می شود واریانس دو جامعه برابر نیست. برای نمونه به منظور بررسی معنی دار بودن تفاوت میانگین نمره نظرات پاسخ دهندگان بر اساس جنسیت در خصوص هر یک از فرضیه های پژوهش استفاده میشود.

آزمون t هتلینگ : برای مقایسه چند میانگین از دو جامعه استفاده می شود. یعنی دو جامعه براساس میانگین چندین صفت مقایسه شوند.

تحلیل واریانس (ANOVA): از این آزمون به منظور بررسی اختلاف میانگین چند جامعه آماری استفاده می شود. برای نمونه جهت بررسی معنی دار بودن تفاوت میانگین نمره نظرات پاسخ دهندگان بر اساس سن یا تحصیلات در خصوص هر یک از فرضیه های پژوهش استفاده می شود.

تحلیل واریانس چندعاملی (MANOVA): از این آزمون به منظور بررسی اختلاف چند میانگین از چند جامعه آماری استفاده می شود.

تحلیل کوواریانس چندعاملی (MANCOVA): چنانچه در MANOVA بخواهیم اثر یک یا چند متغیر کمکی را حذف کنیم استفاده می شود.

۵-  خلاصه آزمونهای ناپارامتریک

آزمون علامت تک نمونه : برای آزمون فرض پیرامون میانگین یک جامعه استفاده می شود.

آزمون علامت زوجی : برای آزمون فرض پیرامون دو میانگین از یک جامعه استفاده می شود.

ویلکاکسون : همان آزمون علامت زوجی است که در آن اختلاف نسبی تفاوت از میانگین لحاظ می شود.

من-ویتنی: به آزمون U نیز موسوم است و جهت مقایسه میانگین دو جامعه استفاده می شود.

کروسکال-والیس: از این آزمون به منظور بررسی اختلاف میانگین چند جامعه آماری استفاده می شود. به آزمون H نیز موسوم است و تعمیم آزمون U مان-ویتنی می باشد. آزمون کروسکال-والیس معادل روش پارامتریک آنالیز واریانس تک عاملی است.

فریدمن: این آزمون معادل روش پارامتریک آنالیز واریانس دو عاملی است که در آن k تیمار به صورت تصادفی به n بلوک تخصیص داده شده اند.

کولموگروف-اسمیرنف : نوعی آزمون نیکوئی برازش برای مقایسه یک توزیع نظری با توزیع مشاهده شده است.

آزمون تقارن توزیع : در این آزمون شکل توزیع مورد سوال قرار می گیرد. فرض بدیل آن است که توزیع متقارن نیست.

آزمون میانه : جهت مقایسه میانه دو جامعه استفاده می شود و برای k جامعه نیز قابل تعمیم است.

مک نمار : برای بررسی مشاهدات زوجی درباره متغیرهای دو ارزشی استفاده می شود.

آزمون Q کوکران: تعمیم آزمون مک نمار در k نمونه وابسته است.

ضریب همبستگی اسپیرمن: برای محاسبه همبستگی دو مجموعه داده که به صورت ترتیبی قرار دارند استفاده می شود.

منبع: http://spss-amar.vcp.ir

کدام آزمون آماری برای تحقیق ما مناسب است؟

کاشانی ۱۱:۰۷ ق.ظ ۰

شاخه های مختلف علوم برای تجزیه و تحلیل داده ها از روش های مختلفی مانند روش های ذیل استفاده می نمایند:

الف) روش تحلیل محتوا

ب) روش تحلیل آماری

ج) روش تحلیل ریاضی

د) روش اقتصاد سنجی

ه) روش ارزشیابی اقتصادی

و) …

تمرکز این نوشتار بر روش های تجزیه و تحلیل سیستمهای اقتصادی اجتماعی و بویژه روش های تحلیل آماری می باشد.

آمار علم طبقه بندی اطلاعات، علم تصمیم گیری های علمی و منطقی، علم برنامه ریزی های دقیق و علم توصیف و بیان آن چیزی است که از مشاهدات می توان فهمید.

هدف ما آموزش درس آمار نیست زیرا اینگونه مطالب تخصصی را میتوان در مراجع مختلف یافت، هدف اصلی ما ارائه یک روش دستیابی سریع به بهترین روش آماری می باشد.

یکی از مشکلات عمومی در تحقبقات میدانی انتخاب روش تحلیل آماری مناسب و یا به عبارتی انتخاب آزمون آماری مناسب برای بررسی سوالات یا فرضیات تحقیق می باشد.

در آزمون های آماری هدف تعیین این موضوع است که آیا داده های نمونه شواهد کافی برای رد یک حدس یا فرضیه را دارند یا خیر؟

انتخاب نادرست آزمون آماری موجب خدشه دار شدن نتایج تحقیق می شود.

دکتر غلامرضا جندقی استاد یار دانشگاه تهران در مقاله ای کاربرد انواع آزمون های آماری را با توجه به نوع داده ها و وبژگی های نمونه آماری و نوع تحلیل نشان داده است که در این بخش به نکات کلیدی آن اشاره می شود:

قبل از انتخاب یک آزمون آماری بایستی به سوالات زیر پاسخ داد:

۱- چه تعداد متغیر مورد بررسی قرار می گیرد؟

۲- چند گروه مفایسه می شوند؟

۳- آیا توزیع ویژگی مورد بررسی در جامعه نرمال است؟

۴- آیا گروه های مورد بررسی مستقل هستند؟

۵- سوال یا فرضیه تحقیق چیست؟

۶- آیا داده ها پیوسته، رتبه ای و یا مقوله ای Categorical هستند؟

قبل از ادامه این مبحث لازم است مفهوم چند واژه آماری را یاد آور شوم که زیاد وقت گیر نیست.

۱- جامعه آماری: به مجموعه کاملی از افراد یا اشیاء یا اجزاء که حداقل در یک صفت مورد علاقه مشترک باشند ،گفته می شود.

۲- نمونه آماری: نمونه بخشی از یک جامعة آماری تحت بررسی است که با روشی که از پیش تعیین شده است انتخاب می‌شود، به قسمی که می‌توان از این بخش، استنباطهایی دربارة کل جامعه بدست آورد.

۳- پارامتر و آماره: پارامتر یک ویژگی جامعه است در حالی که آماره یک ویژگی نمونه است. برای مثال میانگین جامعه یک پارامتر است. حال اگر از جامعه نمونه‌گیری کنیم و میانگین نمونه را بدست آوریم، این میانگین یک آماره است.

۴- برآورد و آزمون فرض: برآوردیابی و آزمون فرض دو روشی هستند که برای استنباط درمورد پارامترهای مجهول دو جمعیت به کار می روند.

۵- متغیر: ویژگی یا خاصیت یک فرد، شئ و یا موقعیت است که شامل یک سری از مقادیر با دسته بندیهای متناسب است. قد، وزن، گروه خونی و جنس نمونه هایی از متغیر هستند. انواع متغیر می تواند کمی و کیفی باشد.

۶- داده های کمی مانند قد، وزن یا سن درجه بندی می شوند و به همین دلیل قابل اندازه گیری می باشند. داده های کمی نیز خود به دو دسته دیگر تقسیم می شوند:

الف: داده های فاصله ای (Interval data)

ب: داده های نسبتی (Ratio data)

7- داده های فاصله ای: به عنوان مثال داده هایی که متغیر IQ (ضریب هوشی) را در پنج نفر توصیف می کنند عبارتند از: ۸۰، ۱۱۰، ۷۵، ۹۷ و ۱۱۷، چون این داده ها عدد هستند پس داده های ما کمی اند اما می دانیم که  IQ نمی تواند صفر باشد و صفر در اینجا فقط مبنایی است تا سایر مقادیر  IQ در فاصله ای منظم از صفر و یکدیگر قرار گیرند پس این داده ها فاصله ای اند.

۸- داده های نسبتی: داده های نسبتی داده هایی هستند که با عدد نوشته می شوند اما صفر آنها واقعی است. اکثریت داده های کمی این گونه اند و حقیقتاً دارای صفر هستند. به عنوان مثال داده هایی که متغیر طول پاره خط بر حسب سانتی متر را توصیف می کنند عبارتند از: ۲۰، ۱۵، ۳۵، ۸ و ۲۳، چون این داده ها عدد هستند پس داده های ما کمی اند و چون صفر در اینجا واقعاً وجود دارد این داده نسبتی تلقی می شوند.

۹- داده های کیفی مانند جنس، گروه خونی یا ملیت فقط دارای نوع هستند و قابل بیان با استفاده از واحد خاصی نیستند. داده های کیفی خود به دو دسته دیگر تقسیم می شوند:

الف: داده های اسمی  (Nominal data)

ب: داده های رتبه ای  (Ordinal data)

10- داده های رتبه ای Ordinal: مانند کیفیت درسی یک دانش آموز (ضعیف، متوسط و قوی) و یا رتبه بندی هتل ها ( یک ستاره، دو ستاره و …)

۱۱- داده های اسمی (nominal ) که مربوط به متغیر یا خواص کیفی مانند جنس یا گروه خونی است و بیانگر عضویت در یک گروها category  خاص می باشد. (داده مقوله ای)

۱۲- متغیر تصادفی گسسته و پیوسته: به عنوان مثال تعداد تصادفات جاده‌ای در روز یک متغیر تصادفی گسسته است ولی انتخاب یک نقطه‌ به تصادف روی دایره‌ای به مرکز مبدأ مختصات و شعاع ۳ یک متغیر تصادفی پیوسته است.

۱۳- گروه: یک متغیر می تواند به لحاظ بررسی یک ویژگی خاص در یک گروه و یا دو و یا بیشتر مورد بررسی قرار گیرد. نکته ۱: دو گروه می تواند وابسته و یا مستقل باشد. دو گروه وابسته است اگر ویژگی یک مجموعه افراد قبل و بعد از وقوع یک عامل سنجیده شود. مثلا میزان رضایت شغلی کارکنان قبل و بعد از پرداخت پاداش و همچنین اگر در مطالعات تجربی افراد از نظر برخی ویژگی ها در یک گروه با گروه دیگر همسان شود.

۱۴- جامعه نرمال: جامعه ای است که از توزیع نرمال تبعیت می کند.

۱۵- توزیع نرمال: یکی از مهمترین توزیع ها در نظریه احتمال است. و کاربردهای بسیاری در علوم دارد.

فرمول این توزیع بر حسب دو پارامتر امید ریاضی و واریانس بیان می شود. منحنی رفتار این تابع تا حد زیادی شبیه به زنگ های کلیسا می باشد. این منحنی دارای خواص بسیار جالبی است برای مثال نسبت به محور عمودی متقارن می باشد، نیمی از مساحت زیر منحنی بالای مقدار متوسط و نیمه دیگر در پایین مقدار متوسط قرار دارد و اینکه هرچه از طرفین به مرکز مختصات نزدیک می شویم احتمال وقوع بیشتر می شود.

سطح زیر منحنی نرمال برای مقادیر متفاوت مقدار میانگین و واریانس فراگیری این رفتار آنقدر زیاد است که دانشمندان اغلب برای مدل کردن متغیرهای تصادفی که با رفتار آنها آشنایی ندارند، از این تابع استفاده می کنند. به عنوان  مثال در یک امتحان درسی نمرات دانش آموزان اغلب اطراف میانگین بیشتر می باشد و هر چه به سمت نمرات بالا یا پایین پیش برویم تعداد افرادی که این نمرات را گرفته اند کمتر می شود. این رفتار را بسهولت می توان با یک توزیع نرمال مدل کرد.

اگر یک توزیع نرمال باشد مطابق قضیه چی بی شف ۲۶٫۶۸ % مشاهدات در فاصله میانگین، مثبت و منفی یک انحراف معیار قرار دارد. و  ۴۴٫۹۵ % مشاهدات در فاصله میانگین، مثبت و منفی دو انحراف معیار قرار دارد. و ۷۳٫۹۹ % مشاهدات در فاصله میانگین، مثبت و منفی سه انحراف معیار قرار دارد.

نکته ۱: واضح است که داده های رتبه ای دارای توزیع نرمال نمی باشند.

نکته ۲: وقتی داده ها کمی هستند و تعداد نمونه نیز کم است تشخیص نرمال بودن داده ها توسط آزمون کولموگروف – اسمیرنف مشکل خواهد شد.

۱۶- آزمون پارامتریک: آزمون های پارامتریک، آزمون های هستند که توان آماری بالا و قدرت پرداختن به داده  های جمع آوری شده در طرح  های پیچیده را دارند. در این آزمون ها داده ها توزیع نرمال دارند. (مانند آزمون تی).

۱۷- آزمون های غیرپارامتری: آزمون هائی می باشند که داده ها توزیع غیر نرمال داشته و در مقایسه با آزمون های پارامتری از توان تشخیصی کمتری برخوردارند.  (مانند آزمون من – ویتنی و آزمون کروسکال و والیس)

نکته۳: اگر جامعه نرمال باشد از آزمون های پارامتریک و چنانچه غیر نرمال باشد از آزمون های غیر پارامتری استفاده می نمائیم.

نکته ۴: اگر نمونه بزرگ باشد، طبق قضیه حد مرکزی جتی اگر جامعه نرمال نباشد می توان از آزمون های پارامتریک استفاده نمود.

حال به کمک جدول زیر براحتی می توانید یکی از ۲۴ آزمون مورد نظر خود را انتخاب کنید:

هدفداده کمی و دارای توزیع نرمالداده رتبه ای و یا داده کمی غیر نرمالداده های کیفی اسمی
Categorical
توصیف یک گروهآزمون میانگین و انحراف معیارآزمون میانهآزمون نسبت
مقایسه یک گروه با یک مقدار فرضیآزمون یک نمونه ایآزمون ویلکاکسونآزمون خی – دو یا آزمون دو جمله ای
مقابسه دو گروه مستقلآزمون برای نمونه های مستقلآزمون من – ویتنیآزمون دقیق فیشر ( آزمون خی دو برای نمونه های بزرگ)
مقایسه دو گروه وابستهآزمون زوجیآزمون کروسکالآزمون مک – نار
مقایسه سه گروه یا بیشتر (مستقل)آزمون آنالیز واریانس یک راههآزمون والیسآزمون خی – دو
مقایسه سه گروه یا بیشتر (وابسته)آزمون آنالیز واریانس با اندازه های مکررآزمون فریدمنآزمون کوکران
اندازه همبستگی بین دو متغیرآزمون ضریب همبستگی پیرسونآزمون ضریب همبستگی اسپرمنآزمون ضریب توافق
پیش بینی یک متغیر بر اساس یک یا چند متغیرآزمون رگرسیون ساده یا غیر خطیآزمون رگرسیون نا پارامتریکآزمون رگرسیون لجستیک

در رویکردی دیگر بر مبنای تعداد متغیر، تعداد گروه و نرمال بودن جامعه نیز می توان به الگوریتم آزمون آماری مورد نظر دست یافت:

یک متغیر:

انتخاب آزمون آماری برای یک متغیریک متغیر در یک گروهیک متغیر در دو گروهیک متغیر در سه گروه یا بیشتر
متغیر نرمالآزمون میانگین و انحراف معیارآزمون تیآزمون آنالیز واریانس ANOVA
متغیر غیر نرمالآزمون نسبت (دو جمله ای)آزمون خی -دوآزمون ناپارامتریک

دو متغیر

انتخاب آزمون آماری برای دو متغیرهر دو متغیر پیوسته هستندیک متغیر پیوسته و دیگری گسسته استهر دو متغیر مقوله ای هستند
آزمون همبستگیآزمون آنالیز واریانس ANOVAآزمون خی – دو

سه متغیر و بیشتر:

انتخاب آزمون آماری برای سه متغیر و بیشتریک گروهدو گروه و بیشتر
آنالیز کواریانستحلیل ممیزی
آنالیز واریانس با اندازه های مکررآنالیز واریانس چند متغیره
تحلیل عاملیورگرسیون چند گانه

قابل ذکر است قبل از ورود به الگوریتم انتخاب آزمون آماری بهتر است به سوالات زیر پاسخ دهیم:

۱- آیا اختلافی بین میانگین (نسبت) یک ویژگی در دو یا چند گروه وجود دارد؟

۲- آیا دو متغیر ارتباط دارند؟

۳- چگونه می توان یک متغیر را با استفاده از متغیر های دیگر پیش بینی کرد؟

۴- چه چیزی می توان با استفاده از نمونه در مورد جامعه گفت؟

پس از انتخاب آزمون آماری مناسب حال می توان با هر یک از آزمون ها به صورت تخصصی برخورد کرد:

آزمون کی دو (خی دو یا مربع کای) 

این آزمون از نوع ناپارامتری است و برای ارزیابی همقوارگی متغیرهای اسمی به کار می‌رود. این آزمون تنها راه حل موجود برای آزمون همقوارگی در مورد متغیرهای مقیاس اسمی با بیش از دو مقوله است، بنابراین کاربرد خیلی زیادتری نسبت به آزمونهای دیگر دارد. این آزمون نسبت به حجم نمونه حساس است.

آزمون  z  –  آزمون خطای استاندارد میانگین

این آزمون برای ارزیابی میزان همقوارگی یا یکسان بودن و یکسان نبودن (Goodness of fit) میانگین نمونه ای و میانگین جامعه به کار می رود. این آزمون مواقعی به کار می رود که می خواهیم بدانیم آیا میانگین برآورد شده نمونه ای با میانگین جامعه جور می آید یا نه.  اگر این تفاوت کم باشد، این تفاوت معلول تغییر پذیری نمونه ای شناخته می شود، ولی اگر زیاد باشد نتیجه گرفته می شود که برآورد نمونه ای با پارامتر جامعه یکسان (همقواره) نیست.  این آزمون پارامتری است یعنی استفاده از آن مشروط به آن است که دو پارامتر جامعه که میانگین و انحراف معیار معلوم باشند. همچنین برای آزمون متغیرهای پیوسته (مقیاس فاصله ای) کاربرد دارد. تعداد نمونه بزرگتر  و یا مساوی ۳۰  باشد و نیز توزیع متغیر در جامعه نرمال باشد.

آزمون استیودنت t

این آزمون برای ارزیابی میزان همقوارگی یا یکسان بودن و نبودن میانگین نمونه ای با میانگین جامعه در حالتی به کار می رود که انحراف معیار جامعه مجهول باشد. چون توزیع t  در مورد نمونه های کوچک (کمتر از ۳۰) با استفاده از درجات آزادی تعدیل می‌شود، می‌توان از این آزمون برای نمونه های بسیار کوچک استفاده نمود. همچنین این آزمون مواقعی که خطای استاندارد جامعه نامعلوم و خطای استاندارد نمونه معلوم باشد، کاربرد دارد.

برای به کاربردن این آزمون، متغیر مورد مطالعه باید در مقیاس فاصله ای باشد، شکل توزیع آن نرمال و تعداد نمونه کمتر از ۳۰ باشد.

آزمون t در حالتهای زیر کاربرد دارد:

– مقایسه یک عدد فرضی با میانگین جامعه نمونه

– مقایسه میانگین دو جامعه

– مقایسه یک نسبت فرضی با یک نسبتی که از نمونه بدست آمده

– مقایسه دو نسبت از دو جامعه

آزمون F

این آزمون تعمیم یافته آزمون t است و برای ارزیابی یکسان بودن یا یکسان نبودن دو جامعه و یا چند جامعه به کار برده می‌شود. در این آزمون واریانس کل جامعه به عوامل اولیه آن تجزیه می‌شود. به همین دلیل به آن آزمون آنالیز واریانس (ANOVA) نیز می‌گویند.

وقتی بخواهیم بجای دو جامعه، همقوارگی چند جامعه را تواما با هم مقایسه نماییم از این آزمون استفاده می‌شود، چون مقایسه میانگین های چند جامعه با آزمون t  بسیار مشکل است.  مقایسه میانگین ها و همقوارگی چند جامعه بوسیله این آزمون (F   یا ANOVA) راحت تر از آزمون t  امکان پذیر است.

آزمون کوکران 

آزمون کوکران تعمیم یافته آزمون مک نمار است. این آزمون برای مقایسه بیش از دو گروه که وابسته باشند و مقیاس آنها اسمی یا رتبه ای باشند به کار می‌رود و همچون آزمون مک نمار، جوابها باید دوتایی باشند.

برای آزمون تغییرات یک نمونه در زمان ها و یا موقعیت های مختلف (مثل آراء رای دهندگان قبل از انتخابات در زمانهای مختلف) به کار می‌رود. مقیاس می‌تواند اسمی یا رتبه ای باشد. به جای چند سوال می‌توان یک سوال را در موقعیت های مختلف ارزیابی نمود. همه افراد باید به همه سوالات پاسخ گفته باشند. چون پاسخ ها دو جوابی است، در بعضی از انواع تحقیقات ممکن است اطلاعات بدست آمده از دست برود و بهتر است از رتبه بندی استفاده کرد که در این صورت «آزمون ویلکاکسون» بهتر جوابگو خواهد بود.

در صورت کوچک بودن نمونه ها آزمون کوکران مناسب نیست و بهتر است از «آزمون فرید من» استفاده شود.

آزمون فریدمن 

این آزمون برای مقایسه چند گروه از نظر میانگین رتبه های آنهاست و معلوم می‌کند که آیا این گروه ها می‌توانند از یک جامعه باشند یا نه؟

مقیاس در این آزمون باید حداقل رتبه ای باشد. این آزمون متناظر غیر پارامتری آزمون F است و معمولا در مقیاس های رتبه ای به جای F به کار می‌رود و جانشین آن می‌شود (چون در F باید همگنی واریانس ها وجود داشته باشد که در مقیاسهای رتبه ای کمتر رعایت می‌شود).

آزمون فریدمن برای تجریه واریانس دو طرفه (برای داده های غیر پارامتری) از طریق رتبه بندی به کار می‌رود و نیز برای مقایسه میانگین رتبه بندی گروه های مختلف. تعداد افراد در نمونه ها باید یکسان باشند که این از معایب این آزمون است. نمونه ها باید همگی جور شده باشند.

آزمون کالماگورف- اسمیرانف 

این آزمون از نوع ناپارامتری است و برای ارزیابی همقوارگی متغیرهای رتبه ای در دو نمونه (مستقل و یا غیر مستقل) و یا همقوارگی توزیع یک نمونه با توزیعی که برای جامعه فرض شده است، به کار می‌رود (اسمیرانف یک نمونه ای). این آزمون در مواردی به کار می‌رود که متغیرها رتبه ای باشند و توزیع متغیر رتبه ای را در جامعه بتوان مشخص نمود. این آزمون از طریق مقایسه توزیع فراوانی های نسبی مشاهده شده در نمونه  با توزیع فراوانی های نسبی جامعه  انجام می‌گیرد. این آزمون ناپارامتری است و بدون توزیع است اما باید توزیع متغیر در جامعه برای هر یک از رتبه های مقیاس رتبه ای در جامعه بطور نسبی در نظر گرفته شود که آنرا نسبت مورد انتظار می نامند.

آزمون کالماگورف- اسمیرانف دو نمونه ای Two- Sample Kalmogorov- Smiranov Test

این آزمون در مواقعی به کار می‌رود که دو نمونه داشته باشیم (با شرایط مربوط به این آزمون که قبلا گفته شد) و بخواهیم همقوارگی بین آن دو نمونه را با هم مقایسه کنیم.

آزمون کروسکال- والیس

این آزمون متناظر غیر پارامتری آزمون F  است و همچون آزمون F ، موقعی به کار برده می‌شود که تعداد گروه ها بیش از ۲ باشد. مقیاس اندازه گیری در کروسکال والیس حداقل باید ترتیبی باشد.

این آزمون برای مقایسه میانگین های بیش از ۲ نمونه رتبه ای (و یا فاصله ای) بکار می‌رود. فرضیات در این آزمون بدون جهت است یعنی فقط تفاوت را نشان می‌دهد و جهت بزرگتر یا کوچکتر بودن گروه ها را از نظر میانگین هایشان نشان نمی دهد. کارایی این آزمون ۹۵ درصد آزمون F است.

آزمون مک نمار

این آزمون از آزمونهای ناپارامتری است که برای ارزیابی همانندی دو نمونه وابسته بر حسب  متغیر دو جوابی استفاده می‌شود. متغیرها می‌توانند دارای مقیاس های اسمی و یا رتبه ای باشند. این آزمون در طرح های ماقبل و مابعد می‌تواند مورد استفاده قرار گیرد (یک نمونه در دو موقعیت مختلف). این آزمون مخصوصا برای سنجش میزان تاثیر عملکرد تدابیر به کار می‌رود.

ویژگی ها: اگر متغیرها اسمی باشند، این آزمون بی بدیل است اما اگر رتبه ای باشد می‌توان از آزمون t نیز استفاده کرد (در صورت وجود شرایط آزمون t) ، و یا آزمون ویلکاکسون استفاده نمود. از عیوب این آزمون این است که جهت و اندازه تغییرات را محاسبه نمی‌کند و فقط وجود تغییرات را در نمونه ها در نظر می‌گیرد.

آزمون میانه

این آزمون همتای ناپارامتری آزمون های t – Z – F  است و وقتی دو یا چند گروه از میان دو یا چند جامعه مستقل با توزیع های یکسان انتخاب شده اند به کار برده می‌شود. در این آزمون مقیاس اندازه گیری ترتیبی است و بین داده ها نباید همرتبه وجود داشته باشد. این آزمون، هم برای گروه های مستقل و هم وابسته کاربرد دارد و لزومی ندارد که حتما حجم گروه های نمونه با یکدیگر برابر باشند.

آزمون تک نمونه ای دورها 

این آزمون مواقعی به کار می‌رود که توالی مقادیر متغیرها را بخواهیم آزمون نماییم که آیا تصادفی بوده و یا نه. در واقع آزمون کی دو و یا آزمون های دیگر که در آنها توالی متغیرها بی اهمیت است، در این آزمون مهم و اصل انگاشته می‌شود. به عبارت دیگر، برای اینکه بتوانیم در یک نمونه که در آن رویدادهای مختلف از طرف فرد و یا واحد آماری رخ داده است، آزمون نماییم که آیا این رویدادها تصادفی است یا نه، به کار برده می‌شود. هیچ آزمون دیگری همچون این آزمون نمی تواند توالی را مورد نظر قرار دهد. بنابراین برای این منظور منحصر به فرد می‌باشد.

آزمون علامت

این آزمون از انواع آزمونهای غیر پارامتری است و هنگامی به کار برده می‌شود که نمونه های جفت، مورد نظر باشد (مثل زن و شوهر و یا خانه های فرد و زوج و . . . ). زیرا در این آزمون یافته‌ها به صورت جفت جفت بررسی می‌شوند و اندازه مقادیر در آن بی اثر است و فقط علامت مثبت و منفی و یا در واقع جهت پاسخ ها و یا بیشتر و کمتر بودن پاسخ های جفت‌های گروه مورد تحقیق (نمونه آماری) در نظر گرفته می‌شود.

هنگامی که ارزشیابی متغیر مورد مطالعه با روشهای عادی قابل اندازه گیری نباشد و قضاوت در مورد نمونه های آماری (که به صورت جفت ها هستند) فقط با علامت بیشتر (+) و کمتر (-) مورد نظر باشد ، از این آزمون می‌توان استفاده کرد. شکل توزیع می‌تواند نرمال و یا غیر نرمال باشد و یا از یک جامعه و یا دو جامعه باشند (مستقل و یا وابسته). توزیع باید پیوسته باشد. این آزمون فقط تفاوت های زوجها را مورد بررسی قرار می‌دهد و در صورت مساوی بودن نظرات هر زوج (مشابه بودن) آنها را از آزمون حذف می‌کند. چون مقادیر در این آزمون نقشی ندارند، شدت و ضعف و اندازه بیشتر یا کمتر بودن نظرات پاسخگویان (جفت ها) در این آزمون بی اثر است و در واقع نقص این آزمون حساب می‌شود.

آزمون تی هتلینگ (T)

آزمون T هتلینگ تعمیم یافته t استیودنت است. در آزمون t یک نمونه ای، میانگین یک صفت از یک نمونه، با یک عدد فرضی که میانگین آن صفت از جامعه فرض می‌شد، مورد مقایسه قرار می‌گرفت، اما در T  هتلینگ K متغیر (صفت) از آن جامعه (نمونه های جامعه) با k  عدد فرضی، مورد مقایسه قرار می‌گیرند. در واقع این آزمون از نوع آزمونهای چند متغیره است که همقوارگی (Goodness of fit) را بین صفت های مختلف از جامعه بدست می‌دهد. در T  هتلینگ دو نمونه ای نیز همچون T استیودنت دو نمونه ای، مقایسه دو نمونه است اما در این آزمون K صفت از یک جامعه (نمونه) با K صفت از جامعه دیگر (نمونه دیگر) مورد مقایسه قرار می‌گیرد.

آزمون مان وایتنی U  

هر گاه دو نمونه مستقل از جامعه ای مفروض باشد و متغیرهای آنها به صورت ترتیبی باشند، از این آزمون استفاده می‌شود. این آزمون مشابه t استیودنت با دو نمونه مستقل است و آزمون ناپارامتری آن محسوب می‌شود.

منبع: http://isigroup.ir/tag

هرگاه شرایط استفاده از آزمونهای پارامتری در متغیرها موجود نباشد، یعنی متغیرها پیوسته و نرمال نباشند از این آزمون استفاده می‌شود. دو نمونه باید مستقل بوده و هر دو کوچکتر از ۱۰ مورد باشند. در صورت بزرگتر بودن از ۱۰ مورد باید از آماره های ‌‌Z  استفاده کرد (در محاسبات کامپیوتری، تبدیل به Z  به طور خودکار انجام می‌شود). در این آزمون شکل توزیع، پیش فرضی ندارد یعنی می‌تواند نرمال و یا غیر نرمال باشد.

آزمون ویلکاکسون  

این آزمون از آزمونهای ناپارامتری است که برای ارزیابی همانندی دو نمونه وابسته با مقیاس رتبه ای به کار می‌رود. همچون آزمون مک نمار، این آزمون نیز مناسب طرح های ماقبل و مابعد است (یک نمونه در دو موقعیت مختلف)، و یا دو نمونه که از یک جامعه باشند. این آزمون اندازه تفاوت میان رتبه ها را در نظر می‌گیرد بنابراین متغیرها می‌توانند دارای جوابهای متفاوت و یا فاصله ای باشند. این آزمون متناظر با آزمون t دو نمونه ای وابسته است و در صورت وجود نداشتن شرایط آزمون t جانشین خوبی برای آن است. نمونه های به کار برده شده در این آزمون باید نسبت به سایر صفت هایشان جور شده (جفت شده) باشند.

آزمون لون Levene

آزمون لون همگنی واریانس ها را در نمونه های متفاوت بررسی می نماید. به عبارتی فرض تساوی متغیر وابسته را برای گروه هائی که توسط عامل رسته ای تعیین شده اند، آزمون می کند و نسبت به اکثر آزمونها کمتر به فرض نرمال بودن وابسته بوده و در واقع به انحراف نرمال مقاوم است.

این آزمون در نظر می گیرد که واریانس جمعیت آماری در نمونه های مختلف برابر است. فرض صفر همگن بودن واریانس ها می باشد یعنی واریانس جمعیت ها با هم برابر است و اگر مقدار P-VALUE در اماره لون کمتر از ۰٫۰۵ باشد تفاوت بدست آمده در واریانس نمونه بعید است که بر اساس روش نمونه گیری تصادفی رخ داده باشد. بنابراین فرض صفر که برابری واریانس ها می باشد رد می شود و به این نتیجه می رسیم که که بین واریانس ها در نمونه تفاوت وجود دارد.

منبع: http://isigroup.ir

کاربرد آمار در داده کاوی

کاشانی ۹:۱۵ ب.ظ ۲

همانگونه که واضح و مشخص است با گذشت زمان علم نیز پیشرفت می کند، هر چه به جلوتر می رویم روشهای جدیدتر و بهتر مورد استفاده قرار می گیرد. علم امروز نسبت به دیروز جدیدتر است. روشهای جدید علمی در پی کشف محدودیت های روشهای قدیمی ایجاد می شود و از آنجایی که روشهای آماری جزء روشهای قدیمی Data mining محسوب می شوند، از این قاعده کلی که دارای محدودیت هستند مستثنی نیستند. داشتن فرض اولیه در مورد داده ها، یکی از این موارد است. در اینجا به تشریح بیشتر تفاوت های بین مباحث و متدهای آماری و دیگر متدهای داده کاوی که در کتابهای مختلف بحث شده است می پردازیم.

تکنیکهای داده کاوی و تکنیکهای آماری در مباحثی چون تعریف مقدار هدف برای پیش گویی، ارزشیابی خوب و داده های دقیق (تمیز) (clean data) خوب عمل می کنند، همچنین این موارد در جاهای یکسان برای انواع یکسانی از مسایل (پیش گویی، کلاس بندی و کشف) استفاده می شوند، بنابراین تفاوت این دو چیست؟چرا ما آنچنان که علاقه مند بکاربردن روشهای داده کاوی هستیم علاقه مند روشهای آماری نیستیم؟ برای جواب این سوال چندین دلیل وجود دارد. اول اینکه روشهای کلاسیک داده کاوی از قبیل شبکه های عصبی، تکنیک نزدیک ترین همسایه روشهای قوی تری برای داده های واقعی به ما می دهند و همچنین استفاده از آنها برای کاربرانی که تجربه کمتری دارند راحت تر است و بهتر می توانند از آن استفاده کنند. دلیل دیگر اینکه بخاطر اینکه معمولاُ داده ها اطلاعات زیادی در اختیار ما نمی گذارند، این روشها با اطلاعات کمتر بهتر می توانند کار کنند و همچنین اینکه برای داده ها وسیع کابرد دارند.

در جایی دیگر اینگونه بیان شده که داده های جمع آوری شده نوعاُ خیلی از فرضهای قدیمی آماری را در نظر نمی گیرند، از قبیل اینکه مشخصه ها باید مستقل باشند، تعیین توزیع داده ها، داشتن کمترین همپوشانی در فضا و زمان اغلب داده ها هم پوشانی زیاد می دارند، تخلف کردن از هر کدام از فرضها می تواند مشکلات بزرگی ایجاد کند. زمانی که یک کاربر (تصمیم گیرنده) سعی می کند که نتیجه ای را بدست آورد. داده های جمع آوری شده بطورکلی تنها مجموعه ای از مشاهدات چندی بعد است بدون توجه به اینکه چگونه جمع آوری شده اند.

در جایی پایه و اساس Data mining به دو مقوله آمار و هوش مصنوعی تقسیم شده است که روشهای مصنوعی به عنوان روشهای یادگیری ماشین در نظر گرفته می شوند.فرق اساسی بین روشهای آماری و روشهای یادگیری ماشین  (machine learning) بر اساس فرضها و یا طبیعت داده هایی که پردازش می شوند.بعنوان یک قانون کلی فرضها تکنیکهای آماری بر این اساس است که توزیع داده ها مشخص است که بیشتر موارد فرض بر این است که توزیع نرمال است و در نهایت درستی یا نادرستی نتایج نهایی به درست بودن فرض اولیه وابسته است.در مقابل روشهای یادگیری یادگیری ماشین از هیچ فرض در مورد داده ها استفاده نمی کند و همین مورد باعث تفاوتهایی بین این دو روش می شود.

به هر حال ذکر این نکته ضروری به نظر می رسد که بسیاری از روشهای یادگیری ماشین برای ساخت مدل dataset از حداقل چند استنتاج آماری استفاده می کنندکه این مساله بطور خاص در شبکه عصبی دیده می شود.

بطور کلی روشهای آماری روش های قدیمی تری هستند که به حالت های احتمالی مربوط می شوند.Data mining جایگاه جدید تری دارد که به هوش مصنوعی یادگیری ماشین سیستمهای اطلاعات مدیریت (MIS) و متدلوژی Database مربوط می شود.

روشهای آماری بیشتر زمانی که تعداد دادهها کمتر است و اطلاعات بیشتری در مورد داده ها می توان بدست آورد استفاده می شوند به عبارت دیگر این روشها با مجموعه داده ها ی کوچک تر سر و کار دارند همچنین به کاربران ابزارهای بیشتری برای امتحان کردن داده ها با دقت بیشتر فهمیدن ارتباطات بین داده ها می دهد. بر خلاف روشهایی از قبیل شبکه عصبی که فرآیند مبهمی دارد. پس به طور کلی این روش در محدوده مشخصی از داده های ورودی بکار می رود.بکار بردن این روشها مجموعه داده های مجموعه داده های زیاد احتمال خطا در این روشها را زیاد می کند.چون در داده ها احتمالnoise  وخطا بیشتر می شود و نیز روشهای آماری معمولابه حذف  noiseمی پردازند، بنابراین خطای محاسبات در این حالت زیاد می شود.

در بعضی از روشهای آماری نیازداریم که توزیع داده ها را بدانیم. اگر بتوان به آن دسترسی پیدا کرده با بکار بردن روش آماری می توان به نتایج خوبی رسید.

روشهای آماری چون پایه ریاضی دارند نتایج دقیق تری نسبت به دیگر روشهای Data mining ارائه می دهند ولی استفاده از روابط ریاضی نیازمند داشتن اطلا عات بیشتری در مورد داده ها است.

مزیت دیگر روشهای آماری در تعبیر و تفسیر داده ها است. هر چند روشهای آماری به خاطر داشتن ساختار ریاضی تفسیر سخت تری دارند ولی دقت نتیجه گیری و تعبیر خروجی ها در این روش بهتر است بطور کلی روشهای آماری زمانی که تفسیر داده ها توسط روشهای دیگر مشکل است بسیار مفید هستند.

تفاوتهای کلی روشهای آماری و دیگر روشهای Data mining  در جدول اریه شده است :

روشهای آماریدیگر روشهای Data mining
داشتن فرض اولیهبدون فرض اولیه
تنها برای داده های  عددی کاربرد دارنددر انواع مختلفی از داده ها کاربرد دارند نه فقط داده های عددی
در محدوده کوچکی از داده هادر محدوده وسیع تری از داده ها
حذفnoise ها ، داده های نامشخص ووفیلتر کردن dirty dataData mining به دادهای درست clean data بستگی دارند
روشهای رگرسیون و استفاده از معادلاتاستفاده از شبکه عصبی
استفاده از چارتهای دو بعدی و سه بعدیاستفاده ازData visualization
استفاده از روابط ریاضیاستفاده از روشهای یادگیری ماشین و هوش مصنوعی
در  descriptive statisticalوcluster   analysis  کاربرد دارد.در یادگیری غیر نظارتی کاربرد بیشتر دارد

همچنین می توان گفت که در DM داده ها اغلب بر اساس همپوشانی نمونه هاست،نسبت به اینکه بر اساس احتمال داده ها باشد.همپوشانی نمونه ها برای آشنایی همه انواع پایه ها برای تخمین پا را مترها مشهور است. وهمچنین اغلب استنتاج های آماری نتایج ممکن است مشارکتی باشد تا اینکه سببی باشند.

تکنیکهای ماشین را به سادگی می توان تفسیر کرد .مثلاَُ روش شبکه عصبی بر اساس یک مدل ساده بر اساس مغز انسان استوار است.یعنی همان ساختار مغز انسان را اجرا می کنند ولی خروجی های بسیاری از روشهای آماری ساختار ریاضی دارند،مثلاَُ یک معادله است که تعبیر و تفسیر آن مشکل تر است.در مورد روش های آماری بایداین مطلب را گفت بدون توجه به اینکه مدل کاربردی،مدل آماری است یا خیر،تستهای آماری می تواند برای تحلیل نتایج مفید باشد.

با ارایه توضیحات داده شده درباره های تفاوتهای روشهای آماری و دیگر روشهای DM در ادامه به کابردهای روش روشهای آماری و بحثهای مشترک آمار وDM  می پردازیم .

کاربردهای روشهای آماری

Data  mining   معمولا  وظایف یا به  عبارت بهتر استراتژهای  زیر را  در  داده ها بکار  می برد :

– توضیح و تفسیر (description)

– تخمینestimation)  )

– پیش بینیprediction)  )

– کلاس بندیclassification) )

– خوشه سازی  (clustering)

– وابسته سازی وایجاد رابطه (association)

در جدول زیر  استراتژی ها  و روشهای هر استراتژی مشخص شده است :

روشهااستراتژیها
تحلیل  داده هاتوضیح  وتفسیر
تحلیل های آماریتخمین
تحلیل های آماریپیش بینی
الگوریتم نزدیک ترین همسایهکلاس بندی
درخت  تصمیمکلاس بندی
شبکه های عصبیکلاس بندی
خوشه سازی  k-meanخوشه سازی
شبکه های kohonenخوشه سازی
وابسته سازی  و ایجاد رابطهرابطه سازی

البته باید  گفت که روشهای data mining  تنها  به یک استراتژی خاص محدود  نمی شوندو  نتایج  یک را همپوشانی بین روشها نشان  می دهد. برای مثال درخت تصمیم ممکن است که درکلاس بندی تخمین وپیش بینی کاربرد داشته باشد. بنابراین این جدول را نباید به عنوان تعریف تعریف تقسیم بندی از وظایف در نظرگرفته شود‏‎ بلکه به عنوان یک خروجی از آنچه که ما به عنوان وظایف dataminig  آشنایی پیدا کردیم در نظر گرفته می شود.

همانگونه که ازجدول پیداست روشهای آماری  در مباحث تخمین و پیش بینی کاربرد دارند. در تحلیل آماری تخمین و پیش بینی عناصری از استنباطهای آماری هستند.استنباطهای آماری شامل روشهایی برای تخمین و تست فرضیات درباره جمعیتی از ویژگیها براساس اطلاعات حاصل از نمونه است .یک  جمعیت شامل مجموعه ای از عناصر از قبیل افراد، ایتم ها، یا داده ها یی که دریک مطالعه خاص آمده است. بنابراین در اینجا به توضیح این  دواستراتژی می پردازیم.

۱- تخمین

در تخمین به دنبال این هستیم  که مقدار یک مشخصه خروجی مجهول را تعیین کنیم،مشخصه خروجی در مسائل تخمین بیشتر عددی هستند تا قیاسی. بنابراین مواردی که بصورت قیاسی هستند باید به حالت عددی تبدیل شوند. مثلا موارد بلی،خیر به ۰ و۱ تبدیل می شود.

تکنیکهای نظارتی DM قادرند یکی از دو نوع مسایل کلاس بندی یا تخمین را حل کنند، نه اینکه هر دو را. یعنی اینکه تکنیکی که کار تخمین را ا نجام می دهد، کلا س بندی نمی کند.

روشهای آماری مورد استفاده دراین مورد بطورکلی شامل تخمین نقطه و فاصله اطمینان میباشد. تحلیل های آماری تخمین و تحلیل های یک متغیره و… از این جمله  می باشند.

در توضیح اینکه چرا به سراغ تخمین می رویم باید گفت که مقدار واقعی پارامترها برای ما ناشناخته است.مثلا مقدار واقعی میانگین یک جامعه مشخص نیست. داده ها ممکن است که بطور رضایت بخشی جمع آوری نشده باشد‏ یا به  عبارتی warehouse نشده باشد. به همین دلیل تحلیل گران از تخمین استفاده میکنند.

در خیلی از موارد تعیین میانگین مجموعه ای از داده ها برای ما مهم است.مثلا میانگین نمرات درسی یک کلاس،میانگین تعداد نفراتی که در یک روز به بانک مراجعه می کنند،متوسط مقدار پولی که افراد دریک  شعبه خاص از بانک واریز می کنند و موارد این چنینی.

زمانی که مقدار یک آماره را برای براورد کردن پارامتر یک جامعه به کار ببریم، آن پارامتر را تخمین زده ایم و به مقدار این آماره برآورد نقطه ای پرامتر اطلاق می کنیم. در واقع از کلمه نقطه برای تمایز بین براورد کننده های نقطه ای و فاصله ای استفاده می کنیم. از مهمترین تخمین زننده ها  است که به ترتیب برآورد واریانس و میانگین جامعه هستند. خود برآورد کننده ها دارای خاصیت هایی چون ناریبی، کارایی، ناسازگاری، بسندگی و… هستند، که هر یک به بیان ویژگی خاصی از آنها می پردازند و میزان توانایی آنها را در تخمین درست و دقیق یک پارامتر تعیین می کنند.

در مواردی نیز تخمین فاصله برای ما اهمیت دارد. فاصله اطمینان شامل فاصله ای است که  با درصدی از اطمینان می توانیم بگوییم که مقدار یک  پارامتر درون این فاصله قرار می گیرد. به عبارت دیگر اگر چه برآورد نقطه ای طریقه متداول توصیف برآورد هاست اما درباره آن، جا برای پرسشهای زیادی باقی است. مثلا برآورد نقطه ای به ما نمی گوید که برآورد بر چه مقداری از اطلاعات مبتنی است و چیزی درباره خطا بیان نمی کند. بنابراین می توانیم که برآورد  پارامتر  را  با بعلاوه کردن اندازه کردن اندازه نمونه و مقدار واریانس  ،یا اطلاعات دیگری درباره توزیع نمونه گیری  کامل کنیم.این کار ما را قادر می سازد که اندازه ممکن خطا را برآورد کنیم.

۲- پیش بینی( prediction )

هدف از انجام پیش بینی تعیین ترکیب خروجی با استفاده از رفتار موجود می باشد. یعنی در واقع رسیدن به یک نتیجه بوسیله اطلاعات موجود از داده ها. مشخصه های خروجی در این روش هم می توانند عددی باشند و هم قیاسی. این استراتژی در بین استراتژی های data mining از اهمیت خاصی بر خوردار است، و مفهوم کلی تری را نسبت به موارد دیگر دارد. خیلی از تکنیکهای نظارتی  data mining که برای کلاس بندی و تخمین مناسب هستند در واقع کار پیش بینی انجام می دهند.

آنچه از کتابهای آماری و data minig تحت عنوان پیش بینی برمی آید رگرسیون و مباحث  مر بوط به آن است . در واقع در اکثر این کتابها هدف اصلی از انجام تحلیل های آماری برای داده  کاوی، رگرسیون  داده  هاست و این بعنوان وظیفه اصلی متد های آماری معرفی می شود.

برگرفته از: مدرسه متا یکجا

مقاله نویسی

آشنایی با نرم افزار متلب

آشنایی با نرم افزار متلب

آشنایی با نرم افزار متلب

اگر به برنامه‌نویسی علاقه‌مند باشید، مطمئنا بارها نام نرم‌افزار متلب را شنیده‌اید. متلب (Matlab) نام یک زبان برنامه‌نویسی نسل چهارم و هم‌چنین یک محیط نرم‌افزاری برای انجام محاسبات عددی، تجسم و توسعه نرم‌افزارهای تجاری است. برای آشنایی بیشتر با این نرم افزار با ما همراه باشید.

معرفی نرم افزار Matlab

در اواخر دهه 70 میلادی، متلب توسط Cleve Moler -یکی از موسسان کمپانی خصوصی Mathworks واقع شده در ایالت ماساچوست آمریکا- توسعه و عرضه شد. او که یک استاد ریاضی بود، به منظور دسترسی آسان تر دانشجویان دانشگاه نیومکزیکو به LINPACK و EISPACK، بدون نیاز به یادگیری زبان های برنامه نویسی دیگر مانند فرترن، متلب را ایجاد کرد. اولین برنامه ای که وی با متلب نوشت، یک محاسبه گر ماتریس بود. در سال 2000 متلب بازنویسی شد و با اضافه شدن کتابخانه های کاربردی فراوان، در حوزه های مختلف صنعت، کنترل، مخابرات، پزشکی، فضانوردی و… مورد توجه و استفاده متخصصان قرار گرفت. در واقع می توان گفت که متلب برای استفاده مهندسان و دانشمندان طراحی شده است. آن ها با کمک متلب می توانند به راحتی ماتریس ها و آرایه های ریاضی را به طور مستقیم در برنامه ها استفاده کنند. این موضوع در مورد تجزیه و تحلیل داده ها، پردازش سیگنال و تصویر، جبر خطی و طراحی کنترل نیز صادق است. Matlab به برنامه نویسان کمک می کند تا مسائل پیچیده ریاضی را به زبان کامپیوتر ترجمه کرده و با سرعت بالا آن ها را حل کنند. لوگوی متلب از آغاز تا کنون تغییر زیادی نداشته و نمایشی از معادله ی طول موج است.

ویژگی های زبان متلب و کاربردهای آن

متلب یک زبان برنامه نویسی سطح بالا (نزدیک به زبان انسان)، مفسری و شی گرا است. این زبان برخلاف بسیاری از زبان های برنامه نویسی، متن باز نیست و برای تهیه آن باید هزینه پرداخت کنید (حدودا 50 هزار دلار!) البته استفاده از آن به مدت 30 روز رایگان است. متلب در مقایسه با رقبایش از جمله Fusion، Mathematica و… فضای رم بیش تری مصرف می کند؛ اما از جمله مزیت های آن می توان به امکان گرفتن خروجی C و ++C و همچنین خروجی گرافیکی به صورت نمودار و منحنی از کدهای متلب اشاره کرد. کدهای متلب با کمک API به راحتی با زبان های دیگر مثل جاوا و سی ادغام می شوند و می توان از آن ها در هر بستری استفاده کرد. همچنین می توان با نصب پکیج Hardware Support، برای ابزارهایی مانند رزبری پای، آردوینو، دستگاه های پزشکی مثل MRI و… با استفاده از متلب برنامه نوشت. شما می توانید زبان متلب را تنها در نرم افزار متلب نوشته و اجرا کنید و اجرای آن در سایر محیط های توسعه ی برنامه نویسی امکان پذیر نیست. متلب کاربردهای گسترده ای در رشته های مهندسی، فیزیک، ریاضی و شیمی دارد. برخی از کاربردهای برنامه های ساخته شده با متلب عبارتند از:

  • پردازش سیگنال و مخابرات
  • پردازش فیلم و تصویر
  • سیستم های کنترل خودکار
  • تست و اندازه گیری
  • امور مالی محاسباتی
  • زیست شناسی محاسباتی
  • قدرت محاسبات ریاضی Matlab

محاسبات ریاضی رایج با متلب عبارتند از:

  • رسم و گرافیک 2 و 3 بعدی
  • جبر خطی
  • معادلات جبری
  • توابع غیر خطی
  • آمار
  • تحلیل داده ها
  • حساب و معادلات دیفرانسیل
  • محاسبات عددی
  • ادغام
  • تبدیل
  • ایجاد منحنی و..

کتابخانه های Matlab

متلب در زمینه های مختلف از جمله پردازش سیگنال، هوش مصنوعی، شبکه های عصبی، یادگیری ماشین، حل معادلات دیفرانسیل و فوریه و… دارای کتابخانه های کاربردی فراوان است و امکان ایجاد و افزودن کتابخانه های مجزا نیز وجود دارد. علاوه بر این می توان از پلاگین هایی با عنوان Add-ones نیز استفاده کرد. توابع و دستورات استفاده از کتابخانه ها در بخش Documetation این زبان به صورت کامل موجود هستند و شما به منبع دیگری برای یادگیری نیاز نخواهید داشت.

چه نوع شرکت هایی از متلب استفاده می کنند؟

متلب ابزارهای کاربردی فراوانی در اختیار برنامه نویسان قرار داده است. به همین دلیل بسیاری از صنایع به خصوص صنایع هوافضا و دفاعی به آن نیاز دارند. این شرکت ها از متلب در نمونه گیری اولیه و تست و آزمایشات خود استفاده می کنند. در صنعت تولید خودرو نیز از متلب در توسعه سیستم های کنترل و مصرف سوخت استفاده می شود. صنعت دیگری که استفاده گسترده ای از متلب دارد، صنعت روباتیک است زیرا کمپانی Mathworks از سخت افزارهای بسیاری پشتیبانی می کند که این موضوع ساخت ربات هایی با قابلیت های بسیار پیشرفته را نسبت به گذشته تا حد زیادی آسان تر کرده است.

شروع برنامه نویسی متلب

پس از نصب نرم افزار Matlab با محیطی شبیه به تصویر زیر رو به رو می شوید. صفحه command window جاییست که کدهای شما در آن نوشته می شوند. پنجره Current Folder، فایل ها و پوشه های مرتبط با پروژه شما را نشان می دهد و پنجره Workspace فضای کاری شماست که داده های برنامه در آن نمایش داده می شود.

محیط برنامه و شروع برنامه نویسی با متلب

تعریف متغیرها در Matlab

متغیرها مکان هایی از حافظه هستند که می توان در آن ها داده ها را ذخیره کرده و در قسمت های دیگر برنامه از آن استفاده کرد. برای تعریف متغیرها در متلب تنها کافیست یک نام نمادین (حداکثر 63 کاراکتر) انتخاب کرده و مقدار مورد نظر را به آن تخصیص دهید. لازم به ذکر است که از نام های رزرو شده (مانند sin، tan، cot و…) و علائم (مانند +،-، * و…) نمی توان برای نام متغیرها استفاده کرد. نمونه ای از تعریف متغیر در متلب: A = 3

توجه داشته باشید که زبان متلب Case sensitive بوده و به بزرگ یا کوچک بودن حروف حساس است. استفاده از توابع در Matlabدر برنامه نویسی کاربردهای فراوانی دارند. تابع قطعه کدی است که یک بار نوشته شده و می توان در قسمت های مختلف برنامه بارها آن را فراخوانی کرد. همان طور که پیش تر نیز گفته شد، توابع آماده زیادی در متلب وجود دارند؛ همچنین شما می توانید توابع مورد نیاز خود را تعریف کرده و از آن ها استفاده کنید. برای مثال تابعی که بتواند میانگین اعضای آرایه ورودی را محاسبه کند به این صورت نوشته می شود: function ave = average(x) ave = sum(x(:))/numel(x)

نتیجه گیری

می توان گفت زبان قدرتمند متلب برای استفاد در کاربردهای مهندسی و محاسبات پیچیده ریاضی مناسب است اما به دلیل مصرف بالای منابع سخت افزاری برای استفاده هایی مانند طراحی و توسعه ی وب مناسب نیست. Matlab زبانی مفسری است و در هر بار اجرا، کدها تفسیر می شود به همین دلیل سرعت زبان های مفسری نسبت به زبان های کامپایلری پایین تر است اما مزایایی همچون راحتی استفاده و یادگیری، کتابخانه های کاربردی فراوان و قدرتمند و پشتیبانی توسط سیستم های عامل محبوب Windows، Linux و Mac موجب علاقه مندی بسیاری از برنامه نویسان به این زبان شده است.

کنترل ذهن - انتظار - موفقیت انگیزش - آینده نگری- پژوهش - تفکر

تحلیل عاملی اکتشافی چیست؟

تحلیل عاملی اکتشافی (Exploratory Factor Analysis) یک روش آماری است که به کمک آن می‌توانیم سعی کنیم که ساختار داخلی متغیرهای مختلف را به دست آوریم. در واقع، با استفاده از این روش، می‌توانیم بررسی کنیم که آیا متغیرها با هم ارتباط دارند و در چه مقداری با هم همبستگی دارند.

در این روش، ابتدا مجموعه‌ای از متغیرها را در نظر می‌گیریم و سپس با استفاده از روش‌های آماری، تلاش می‌کنیم تا به دست آوریم که چند عامل اصلی (Factor) در پشت ساختار داده‌ها وجود دارند و هر عامل به چه متغیرهایی وابسته است. در واقع، با استفاده از این روش، می‌توانیم به دست آوریم که متغیرهای مختلف چگونه در یک مجموعه عوامل (Factors) قرار دارند و به طور خلاصه، این که هر متغیر در چه عامل‌هایی نقش دارد.

تحلیل عاملی اکتشافی به عنوان یکی از روش‌های خوشه‌بندی، برای شناسایی الگوهای موجود در داده‌ها و بررسی روابط بین متغیرها استفاده می‌شود. استفاده از این روش در بسیاری از حوزه‌های علمی و صنعتی، از جمله روان‌شناسی، علوم اجتماعی، مدیریت، بازاریابی و … رایج است.

مثالی از کاربرد تحلیل عاملی اکتشافی در علوم اجتماعی:

به عنوان مثال، در مطالعات اجتماعی می‌توان از تحلیل عاملی اکتشافی برای شناسایی عوامل مؤثر در تعیین نگرش و نظرات افراد نسبت به موضوعات مختلف استفاده کرد.

فرض کنید که می‌خواهیم بررسی کنیم که چه عواملی مؤثر بر نگرش افراد نسبت به حقوق زنان هستند. در این مثال، ما می‌توانیم از یک پرسشنامه برای جمع‌آوری داده‌ها استفاده کنیم. پرسشنامه ممکن است شامل چندین سوال در مورد نگرش به حقوق زنان باشد که هر یک از این سوال‌ها یک متغیر است. با استفاده از تحلیل عاملی اکتشافی، می‌توانیم به دست آوریم که کدام سوالات با هم مرتبط هستند و چه عواملی در تعیین نگرش افراد نسبت به حقوق زنان مؤثر هستند.

در این مثال، یکی از عواملی که ممکن است تعیین کننده نگرش افراد نسبت به حقوق زنان باشد، عامل “تفاوت‌های جنسیتی” باشد. این عامل می‌تواند شامل سوالاتی باشد که مرتبط با تفاوت‌های جنسیتی و نقش زنان و مردان در جامعه هستند. عامل دیگری که ممکن است در تعیین نگرش افراد نسبت به حقوق زنان مؤثر باشد، “مساویت” است. این عامل می‌تواند شامل سوالاتی باشد که مرتبط با حقوق مساوی برای زنان و مردان در جامعه هستند.

در نتیجه، با استفاده از تحلیل عاملی اکتشافی، ما می‌توانیم به دست آوریم که چه عواملی در تعیین نگرش افراد نسبت به حقوق زنان مؤثر هستند و این که هر متغیر در کدام عامل نقش دارد. این اطلاعات می‌تواند در تدوین سیاست‌هایی مبتنی بر تعیین اولویت‌های مؤثر در

نحوه ی انجام تحلیل عاملی اکتشافی مثال بالا را در Spss :

این منظور، می‌توانید از دستورالعمل‌های زیر استفاده کنید:

ابتدا، داده‌های خود را در SPSS وارد کنید و به مسیر Analyze > Dimension Reduction > Factor بروید.

در پنجره باز شده، می‌توانید متغیرهای مورد نظر خود را انتخاب کنید و سپس روش تحلیل عاملی اکتشافی را انتخاب کنید.

در بخش “Extraction”, می‌توانید روش استخراج عامل‌ها را انتخاب کنید. روش‌های مختلفی برای استخراج عامل‌ها وجود دارد، مانند روش Principal Component Analysis (PCA) و Maximum Likelihood (ML).

در بخش “Rotation”, می‌توانید روش چرخش عامل‌ها را انتخاب کنید. روش‌های مختلفی برای چرخش عامل‌ها وجود دارد، مانند روش Varimax و Oblimin.

در بخش “Scores”, می‌توانید برای هر شرکت کننده، امتیاز عامل‌ها را محاسبه کنید.

در نهایت، با کلیک بر روی دکمه “OK”، SPSS شروع به اجرای تحلیل عاملی اکتشافی شما می‌کند و نتایج را به شما نمایش می‌دهد.

در نتیجه، با استفاده از این روش، می‌توانید به دست آورید که چه عامل‌هایی در تعیین نگرش افراد نسبت به حقوق زنان مؤثر هستند و این که هر متغیر در کدام عامل نقش دارد. این اطلاعات می‌تواند در تدوین سیاست‌هایی مبتنی بر تعیین اولویت‌های مؤثر در ارتقای حقوق زنان موثر باشد.

تحلیل عاملی اکتشافی در نرم افزار های دیگر:

از جمله نرم افزارهایی که می‌توانید برای انجام تحلیل عاملی اکتشافی استفاده کنید عبارتند از R، SAS، و MATLAB.

در R، می‌توانید از پکیج “psych” برای انجام تحلیل عاملی استفاده کنید. برای انجام تحلیل عاملی اکتشافی، می‌توانید از تابع “fa()” استفاده کنید. این تابع شامل پارامترهایی است که می‌توانید برای تنظیم تحلیل عاملی خود استفاده کنید.

در SAS، می‌توانید از روش‌های مختلفی برای انجام تحلیل عاملی استفاده کنید، از جمله روش‌های Principal Component Analysis (PCA) و Maximum Likelihood (ML). برای انجام تحلیل عاملی اکتشافی در SAS، می‌توانید از ماژول “PROC FACTOR” استفاده کنید.

در MATLAB، می‌توانید از پکیج “Statistics and Machine Learning Toolbox” برای انجام تحلیل عاملی استفاده کنید. برای انجام تحلیل عاملی اکتشافی، می‌توانید از تابع “factoran()” استفاده کنید. این تابع شامل پارامترهایی است که می‌توانید برای تنظیم تحلیل عاملی خود استفاده کنید.

در هر صورت، برای انجام تحلیل عاملی اکتشافی در هر نرم افزاری، شما باید داده‌های خود را به فرمت مناسب وارد کنید و پارامترهای مورد نیاز را برای تحلیل عاملی خود تنظیم کنید. سپس، برنامه را اجرا کرده و نتایج را بررسی کنید.

برای یادگیری بیشتر در مورد تحلیل عاملی اکتشافی، می‌توانید از منابع معتبر زیر استفاده کنید:

“Factor Analysis: A Practical Introduction” نوشته ی Jeremy Miles: این کتاب یکی از بهترین منابع برای یادگیری تحلیل عاملی اکتشافی است. همچنین، این کتاب شامل مثال‌هایی از تحلیل داده‌های واقعی است که می‌تواند به شما در فهم بهتر تحلیل عاملی اکتشافی کمک کند.

“Applied Multivariate Statistics for the Social Sciences” نوشته ی James P. Stevens: این کتاب درباره روش‌های آماری مختلف استفاده شده در تحلیل داده‌های چند متغیره می‌باشد و بخشی درباره تحلیل عاملی اکتشافی است.

“Factor Analysis in SPSS” نوشته ی Andy Field: این کتاب به شما نحوه استفاده از تحلیل عاملی در SPSS را آموزش می‌دهد. در این کتاب به توضیح مراحل تحلیل عاملی در SPSS و تفسیر نتایج آن پرداخته می‌شود.

“Factor Analysis: Statistical Methods and Practical Issues” نوشته ی Jae-On Kim and Charles W. Mueller: این کتاب شامل توضیحاتی درباره تاریخچه و تئوری تحلیل عاملی، روش‌های مختلف استخراج عامل‌ها و دستورالعمل‌های اجرایی برای انجام تحلیل عاملی است.

“Factor Analysis for Applied Research” نوشته ی Robert Jennrich and Douglas A. Harrington: این کتاب به شما نحوه تحلیل داده‌های چند متغیره با استفاده از تحلیل عاملی را آموزش می‌دهد. این کتاب شامل مثال‌هایی از تحلیل داده‌های واقعی است که به شما در فهم بهتر تحلیل عاملی کمک می‌کند.

همچنین، منابع معتبر دیگری نیز برای یادگیری تحلیل عاملی اکتشافی وجود دارد که می‌توانید از آنها استفاده کنید.

برای مشاهده لیست همه ی  پرسشنامه های استاندارد لطفا همین جا روی پرسشنامه استاندارد  کلیک فرمایید.

تحلیل داده های آماری برای پایان نامه و مقاله نویسی ،تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.نرم افزار های کمی: SPSS- PLS – Amosنرم افزار کیفی: Maxqudaتعیین حجم نمونه با:Spss samplepower

روش های تماس:Mobile :  09143444846  واتساپ – تلگرام کانال

تلگرام سایت: برای عضویت در کانال تلگرام سایت اینجا کلیک کنید(البته قبلش فیلتر شکن روشن شود!!) مطالب جالب علمی و آموزشی در این کانال درج می گردد.

صفر تا صد نرم افزار لیزرل

صفر تا صد نرم افزار لیزرل

نرم‌ افزار لیزرل یکی از مهم ترین نرم افزارهای تحلیل داده می باشد که بیشتر برای ترسیم مدل معادلات ساختاری و تحلیل عاملی تاییدی و تحلیل مسیر به کار می آید. در این مقاله با آموزش لیزرل همراه  ما باشید تا به روش کاربردی صفر تا صد برنامه لیزرل به صورت کلی بررسی می شود.

نرم افزار لیزرل چیست ؟

نرم‌ افزار LISREL یکی از پر کاربردترین نرم افزار های آماری برای تحلیل عاملی است. این نرم افزار ابتدا توسط کارل یورسکاگ (Karl Jöreskog) و دگ سوربوم (Dag Sörbom) خلق شد. لیزرل Lisrel در واقع به عبارت linear structural relations اشاره دارد که به معنی روابط ساختاری خطی می باشد. زمانی که پژوهشگر قصد دارد روایی یک آزمون را با استفاده از تحلیل عاملی (CFA) بررسی کند این نرم افزار مکمل نرم افزار spss خواهد بود. همین طور با این نرم افزار می توانید به مدل سازی معادلات ساختاری بپردازید که امکان آن در spss موجود نمی باشد.

کاربرد نرم افزار لیزرل

به صورت کلی این نرم افزار برای ترسیم معادلات ساختاری بین متغیرها و بررسی روایی ازمون ها استفاده می شود. این نرم افزار بر اساس روش همبستگی (Correlation) و روش کوواریانس (Covariance) ، بارهای عاملی که بر روی یک متغیر وجود دارد را بررسی می کند و ما می توانیم تشخیص دهیم که ان سوال را از مقیاس حذف کنیم یا نگه داریم. هیمن طور این نرم افزار واریانس و متغیرهای پنهان را برای ما مشخص می کند. در اصل ما با این نرم افزار بر اساس متغیر های قابل مشاهده (Observable) تحقیق به متغیر های پنهان تحقیق دست پیدا می کنیم. به صورت کلی اقداماتی که می توان در این نرم افزار انجام داد شامل این موارد است:

  • بررسی متغیرهای پنهان
  • تحلیل عاملی تاییدی
  • تحلیل مسیر (مدل‌سازی علت و معلولی برای متغیرهای پنهان)
  • تحلیل ساختار کوواریانس (Linear Structural Relations – LSR)
  • معادلات ساختاری SEM

تحلیل عاملی با لیزرل

برای آموزش لیزرل از تحلیل عاملی شروع می کنیم. زمانی که شما قصد دارید یک مقیاس را در پژوهش کنید باید یکبار تحلیل عاملی تاکیدی را بر روی سوالات این مقیاس پیاده سازی نمایید. با استفاده از این نرم افزار می توان هر دو نوع تحلیل عاملی را بررسی کرد یعنی :

  1. Exploratory Factor Analysis
  2. Confirmatory Factor Analysis

مثال برای تحلیل عاملی تاکیدی (Factor Analysis)

مثلا ما یک مقیاسی را در زمینه سنجش رفتار شهروندی سازمانی طراحی کرده ایم و قصد داریم بررسی کنیم که سوالات این مقیاس چند عامل را می سنجند؟

factor analysis چیست ؟

در نظر بگیرید برای سنجش یک سازه 30 سوال را طراحی کرده ایم . در علم آمار مشخص شده است که این سوالات ممکن است سازه های دیگری را بسنجند و در اصل ما متغیر های پنهان داریم . متغیر های پنهان متغیر هایی هستند که ما در مورد آن ها اطلاعاتی نداریم ولی داریم آن ها را می سنجیم . زمانی که ساختار زیربنایی سوالات را بررسی می کنیم و از آن ها کوواریانس می گیریم مشخص می شود که هر سوالی به یک سری دیگر از سوالات ارتباط دارد و حول بک متغیر مشخص و یکسان هستند . بر حسب صفات مشترک در این سوالات یا گویه ها محقق می تواند کل سوالات را به دو يا چند دسته تقسیم کند. در آمار به اين دسته ها ، عامل گفته می شود. هر عامل یک متغیر پنهان است که از تركيب چند سوال (آن ها را هم متغیر محسوب می کنیم) که با هم رابطه بالایی دارند، ساخته می شود.  تحليل عاملي یک روش آماری است که به كشف این عامل ها در یک مقیاس می پردازد و مشخص می کند ما چند عامل داریم و کدام سوالات مربوط به کدام عامل ها است ؟

تحلیل عاملی اکتشافی

در نظر بگیرید که شما یک پرسشنامه جدید را ایجاد کرده اید . سوالی که پیش می اید این است که این گویه ها و یا سوالات مقیاس جدید شما (پرسشنامه محقق ساخته) چند عامل را بررسی می کند؟ در چنین موردی از تحلیل عاملی اکتشافی استفاده می شود . تحلیل عاملی اکتشافی (EFA ) یکی از روش های تحلیل عاملی است که در آن هدف ما بررسی این موضوع می باشد که در سئوالات مقیاس ما و به طور کلی آنچه داریم می سنجیم ، چند عامل پنهان وجود دارد؟ در واقع ما می خواهیم یک مدل برای سئوالات یا متغیر های تحقیق خود ترسیم نماییم و بار عاملی هر متغیر را بررسی کنیم (در مدلی که ترسیم می کنیم) . تحلیل عاملی اکتشافی زمانی استفاده می شود که از پیش برای روابط بین متغیرهای مقیاس ما مدلی ترسیم نشده باشد و پیش‌ فرضی وجود ندارد که چند عامل پنهان وجود دارد . هدف بررسی تحلیل عاملی این است که عامل‌هایی را پیدا کنیم که بیشترین پراکندگی متغیرها را در اطراف خود دارد و به اصطلاح بار عاملی زیر متغیرهای آن بالا باشد. روش اکتشافی بر این مبنا کار می کند که واریانس مشترک بین متغیر های تحقیق (یک مقیاس) را شناسایی می کند . روش کشف عامل ها از طریق ترسیم ماتريس همبستگي بين متغيرها بدست می باشد.

آموزش تحلیل عاملی تاییدی در نرم افزار لیزرل

تحلیل عاملی تاییدی (CFA) به بررسی مدلی که در گام قبلی توسط تحلیل عاملی اکتشافی ارایه شده می پردازد و محقق قصد دارد ، این تحلیل و مدل بدست آمده را تایید یا رد کند. عموما زمانی که شما می خواهید از مقیاس های از پیش ساخته استفاده کنید برای بررسی روایی مقیاس از تحلیل عاملی تاییدی استفاده می شود . این روش متغیر هایی را که در مدل بدست آمده موثر است را شناسایی می کند و متغیرهای فرعی را حذف می‌کند. برای اجرای تحلیل عامل تایید در لیزرل باید پس از وارد کردن داده های تحقیق در نرم افزار گزینه Path Diagram را انتخاب نمایید.

تحلیل عاملی تاییدی

بعد از مشخص کردن مکان پروژه باید متغیرهای نهان و آشکار خود را تعریف کنید. برای این کار باید ابتدا بر روی گزینه Add/Read/variable در زیر بخش Observed variables بزنید، تا متغیرهای آشکار را تعریف کنید.

تحلیل عاملی تاییدی

در کادر باز شده باید روی گزینه مشخص شده (گزینه دوم) کلیک نمایید. گزینه اول لیست سیستمی فایل لیزرل است که برای داده های کوواریانسی به کار می رود و گزینه دوم برای داده های خام می باشد. سپس بر روی browse کلیک کنید و فایل داده ها را فراخوانی کنید.

تحلیل عاملی تاییدی

در مرحله بعدی باید به تعریف سازه ها یا متغیرهای پنهان یا همان عامل های تحقیق بپردازید. برای این کار باید از بخش Latent variables گزینه را Add/Read/variable را بزنید.

تحلیل عاملی تاییدی

در پایان تعداد نمونه ها را مشخص نمایید و بر روی گزینه ok بزنید.

تحلیل عاملی تاییدی
تحلیل عاملی تاییدی

شما اکنون می توانید مدل خود را ترسیم کنید و با فلش متغیرها را به هم وصل نمایید.

تحلیل عاملی تاییدی

آموزش مدل معادلات ساختاری در نرم افزار لیزرل

یکی از مبانی بررسی داده ها در نرم افزار لیزرل ، تجزیه و تحلیل ساختارهای کوواریانس بین سئوالات است که به آن مدل یابی معادلات ساختاری (Structural equation modeling) هم می گویند . هدف پیش‌ بینی و تشخیص روابط بین متغیر های مستقل و وابسته می باشد . این روش به همراه همبستگی بین متغیر ها چهار کاربرد اصل دارد :

  1. این روش برای پیدا کردن روابط علت و معلولی بین متغیرها استفاده می شود (در اصل می توان با این روش تاثیرات همزمان متغیرهای مستقل روی یک متغیر وابسته را بررسی نمود )
  2. همین طور جایگاه هر یک از متغیر های میانجی (کنترلی، مداخله گر و تعدیل کننده) را تشخیص داد
  3. متغیرهای پنهان (Latent Variable) در تحلیل و آزمون های ما که در اصل در روش تحقیق به آن ها سازه هم گفته می شود را می توان مشخص کرد (مثلا عزت نفس یک سازه است که به صورت مستقیم نمی توان آن را سنجش نمود )
  4. نقش متغیر های پنهان را در مدل پیش‌بین، می توان بررسی نمود
مدل سازی معادلات ساختاری 11

برای اجرای این عمل در نرم افزار لیزرل باید داده ها را در نرم افزار تعریف نمایید و سپس  LISREL project را انتخاب کنید و Path Diagram را بزنید. البته می توانید گزینه LISREL project را نیز انتخاب کنید.سپس باید اسم پروژه را وارد کنید و آن را ذخیره کنید.

مدل سازی معادلات ساختاری 15

سپس باید متغیرهای آشکار و پنهان خود را تعریف کنید. بر روی گزینه Add/Read/variable در زیر بخش Observed variables بزنید، تا متغیرهای آشکار را تعریف کنید. در کادر باز شده باید فایل داده ها را فراخوانی کنید تا متغیرها به لیست متغیرهای آشکار اضافه شود. در گام بعدی باید به تعریف سازه ها یا متغیرهای پنهان بپردازید. برای این کار باید از بخش Latent variables گزینه را Add/Read/variable را بزنید.

در مرحله بعدی باید تعداد نمونه تحقیق خود را وارد کنید و سپس باید روی گزینه next بزنید.

مدل سازی معادلات ساختاری 16
مدل سازی معادلات ساختاری 17

سپس باید مشخص کنید که سوالات متغیرهای مکنون و آشکار و مستقل و وابسته کدام هستند. در مرحله اول باید سوالات متغیر مکنون برون زا یا همان مستقل را به عنوان x و سوالات متغیر دورن زا یا وابسته را به عنوان y تعریف نمایید. همین کار را برای متغیرهای مکنون و آشکار نیز انجام دهید و در پایان مدل را اجرا نمایید.

آموزش تحلیل مسیر در نرم افزار لیزرل

مدل سازی معادلات ساختاری با نرم افزار لیزرل 5

روش تحلیل مسیر از الگوی رگرسیون چند متغیره برای تحلیل داده ها استفاده می کند و به جای استفاده از ضرایب وزنی هر گویه، میانگین وزنی گویه ها را محاسبه می کند و به جای متغیر پنهان در مدل قرار می گیرد.  برای اجرای این روش آماری باید داده ها را وارد نرم افزار spss نمایید و متغیرهای خود را تعریف کنید. در مرحله بعدی وارد نرم افزار لیزرل شوید و یک پروژه جدید تعریف نمایید.

در گام بعدی گزینه Path Diagram را انتخاب نمایید.سپس باید متغیرهای آشکار خود را تعریف نمایید.

صفر تا صد تحلیل مسیر با نرم افزار لیزرل

قسمت متغیر مکنون را خالی بگذارید و گزینه next را بزنید.

تحلیل مسیر در لیزرل 3

تعداد نمونه را وارد کنید. سپس باید از بخش matrix to be analyzed گزینه correlation را انتخاب نمایید. در پایان روی ok بزنید.

تحلیل مسیر در لیزرل 4

در گام بعدی باید مدل خود را ترسیم کنید و آن ها را با فلش به هم وصل نمایید.

تحلیل مسیر در لیزرل 10

در نهایت بعد از وصل شدن متغیرها باید گزینه Run LISREL را بزنید.

تحلیل مسیر در لیزرل 5

آموزش شاخص های برازش و اصلاح مدل در لیزرل

در ادامه آموزش لیزرل باید اشاره کرد، شاخص های برازش مدل اهمیت بسیار بالایی در استفاده از نرم افزار لیزرل دارد. سوال این است که داده های گردآوری شده تا چه حد حمایت کننده مدلی است که به لحاظ نظری تدوین شده است؟

انواع شاخص های برازش مدل

  • شاخص های برازش مطلق
  • شاخص های برازش تطبیقی
  • شاخص های برازش مقتصد

برگرفته از: کیارا آکادمی 

برای مشاهده لیست همه ی  پرسشنامه های استاندارد لطفا همین جا روی پرسشنامه استاندارد  کلیک فرمایید.

تحلیل داده های آماری برای پایان نامه و مقاله نویسی ،تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.نرم افزار های کمی: SPSS- PLS – Amosنرم افزار کیفی: Maxqudaتعیین حجم نمونه با:Spss samplepower

روش های تماس:Mobile :  09143444846  واتساپ – تلگرامکانال تلگرام سایت: برای عضویت در کانال تلگرام سایت اینجا کلیک کنید(البته قبلش فیلتر شکن روشن شود!!) مطالب جالب علمی و آموزشی در این کانال درج می گردد.

کامل ترین پکیج آموزش انویو Nvivo

آشنایی با محیط کاری نرم‌افزار انویوو Nvivo

آشنایی با محیط کاری نرم‌افزار انویوو Nvivo

آشنایی با محیط کاری نرم‌افزار انویوو Nvivo
نرم‌افزار انویوو Nvivo قسمت‌هایی مشابه سایر نرم‌افزارهای تحت ویندوز مانند نوار عنوان، نوار منوها و نوار وضعیت دارد که اغلب کاربران با آن‌ها آشنا هستند (شکل زیر) و همچنین بخش‌های تخصصی که ویژه این نرم‌افزار است؛ در آن تعبیه شده است. دراین فیلم با محیط انویوو Nvivo آشنا می شوید.

جهت دریافت بسته آموزشی کامل نرم افزار انویوو و همچنین دریافت فیلم با کیفیت بالا به سایت rava20.ir به آدرس زیر مراجعه نمایید.

آموزشی کامل نرم افزار انویوو

توجه ارائه این فیلم فقط در کانال آپارات آموزه 20 و سایت روا20 مجاز است.

برای مشاهده لیست همه ی  پرسشنامه های استاندارد لطفا همین جا روی پرسشنامه استاندارد  کلیک فرمایید.

تحلیل داده های آماری برای پایان نامه و مقاله نویسی ،تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.نرم افزار های کمی: SPSS- PLS – Amosنرم افزار کیفی: Maxqudaتعیین حجم نمونه با:Spss samplepower

روش های تماس:Mobile :  09143444846  واتساپ – تلگرامکانال تلگرام سایت: برای عضویت در کانال تلگرام سایت اینجا کلیک کنید(البته قبلش فیلتر شکن روشن شود!!) مطالب جالب علمی و آموزشی در این کانال درج می گردد.

آموزش انویوو Nvivo

نحوه تهیه، نصب و راه اندازی نرم افزار انویو12 Nvivo

نحوه تهیه، نصب و راه اندازی نرم افزار انویو12 Nvivo

در این فیلم آموزشی نحوه تهیه، نصب و راه اندازی نرم افزار انویو12 Nvivo آموزش داده شده است. جهت دریافت بسته آموزشی کامل نرم افزار انویوو و همچنین دریافت فیلم با کیفیت بالا به سایت rava20.ir به آدرس زیر مراجعه نمایید.

آموزشی کامل نرم افزار انویوو

توجه ارائه این فیلم فقط در کانال آپارات آموزه 20 و سایت روا20 مجاز است.

برای مشاهده لیست همه ی  پرسشنامه های استاندارد لطفا همین جا روی پرسشنامه استاندارد  کلیک فرمایید.

تحلیل داده های آماری برای پایان نامه و مقاله نویسی ،تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.نرم افزار های کمی: SPSS- PLS – Amosنرم افزار کیفی: Maxqudaتعیین حجم نمونه با:Spss samplepower

روش های تماس:Mobile :  09143444846  واتساپ – تلگرامکانال تلگرام سایت: برای عضویت در کانال تلگرام سایت اینجا کلیک کنید(البته قبلش فیلتر شکن روشن شود!!) مطالب جالب علمی و آموزشی در این کانال درج می گردد.

کامل ترین پکیج آموزش کاربردی نرم افزار انویو Nvivo (فصل هفتم)

فصل 7 : آموزش انویوو : بصری‌سازی (Visualizations)

فصل 7 : آموزش انویوو : بصری‌سازی (Visualizations): شامل عناوین زیر می باشد:

فصل7: بصری‌سازی (Visualizations)
7-1- ساخت و مدیریت نمودار ها (Charts):
7-۲–  ساخت و مدیریت نقشه ( Maps):
۲-1– 7-  ساخت و مدیریت نقشه ذهنی (mind map):
۲-۲– 7- ساخت و مدیریت نقشه پروژه ( Project map):
۲-3– 7-  ساخت و مدیریت نقشه مفهومی ( Concept map):
7-3- ساخت و مدیریت نگاره ها ( Diagrams):
3-1-7-  ساخت و مدیریت نگاره تحلیل خوشه‌ای( (Cluster analysis diagram
۲-3-7–  ساخت و مدیریت نگاره مقایسه‌ای ( Comparison diagram):
3-3-7- ساخت و مدیریت نگاره اکتشافی ( Explore Diagram):
۴-7–  ساخت و مدیریت تحلیل شیکه های اجتماعی (Social Network Analysis)
1-۴-7ساخت و مدیریت نگاره شبکه اجتماعی (Sociogram Network)  و نگاره مورد محوری اجتماعی((Egocentric sociogram

جهت خرید کل پکیج آموزش کاربردی Nvivo و یا سایر بخش هایی از آن و ارائه توضیحات بیشتر اینجا کلیک کنید.

فصل 6: آموزش انویوو

فصل 6: آموزش انویوو: شامل عناوین زیر می باشد:

فصل6:گزارش‌گیری
6-1- خروجی گرفتن و گزارش‌گیری

جهت خرید کل پکیج آموزش کاربردی Nvivo و یا سایر بخش هایی از آن و ارائه توضیحات بیشتر اینجا کلیک کنید.

فصل 5 : آموزش انویوو: جستجو و بازیابی اطلاعات

فصل 5 : آموزش انویوو: جستجو و بازیابی اطلاعات

فصل5:جستجو و بازیابی اطلاعات : شامل عناوین زیر می باشد:
1- 5- جستجوی ساده و پیشرفته :
۲– 5- ایجاد و مدیریت پرس‌وجوها (Queries) :
1- 5-۲ایجاد و مدیریت یک پرس‌وجو (Query) :
۲– 5-۲مدیریت یک پرس‌وجوی متنی (Query) و فراوانی کلمات :
3- 5-۲مدیریت پرس‌وجوی کدها (Coding) و کیس ها (Cases) :
۴– 5-۲مدیریت پرس‌وجوی ماتریسی کدها (Matrix Coding):
5- 5-۲مدیریت پرس‌وجوی جدول متقاطع (Crosstab):
6- 5-۲مدیریت پرس‌وجوی ترکیبی (Compound):
7- 5-۲مقایسه کدها و محاسبه ضریب کاپای کوهن:

جهت خرید کل پکیج آموزش کاربردی Nvivo و یا سایر بخش هایی از آن و ارائه توضیحات بیشتر اینجا کلیک کنید.

فصل 4: آموزش انویوو

فصل 4: آموزش انویوو شامل عناوین زیر می باشد:

فصل ۴- ایجاد روابط و حاشیه‌نویسی:
۴-1ایجاد روابط بین کد ها
۴-۲طبقه‌بندی کیس ها. تعرف ویژگی ها و تعیین مقادیر برای ویژگی ها
۴-3تعریف فایل ها به‌عنوان کیس و اختصاص ویژگی به کیس ها
۴-۴مجموعه‌سازی و گروه‌بندی اجزای پروژه
۴-5ایجاد و مدیریت یادآورنویسی، چارچوب ماتریسها، حاشیه‌نویسی و لینک ها
5-1- ۴ایجاد و مدیریت یاد آور نویسی (memos):
6۴ایجاد و مدیریت رابطه (لینک ها Links):
4-7ایجاد و مدیریت حاشیه‌نویسی (Annotations) :

جهت خرید کل پکیج آموزش کاربردی Nvivo و یا سایر بخش هایی از آن و ارائه توضیحات بیشتر اینجا کلیک کنید.