بایگانی دسته: Spss-intru

انجام پژوهش کیفی - تحلیل آماری - پژوهش - کیفی - کمی - کامپیوتر

نرم افزارهای تحلیل متن MaxQDA و NVivo: مقایسه، راهنمای استفاده و اهمیت تحلیل متن در پژوهش‌های علوم انسانی

نرم افزارهای تحلیل متن MaxQDA و NVivo: مقایسه، راهنمای استفاده و اهمیت تحلیل متن در پژوهش‌های علوم انسانی

چگونه فایل اکسل را غیر قابل ویرایش کنیم
چگونه فایل اکسل را غیر قابل ویرایش کنیم

تحلیل متن ابزاری است که در پژوهش‌های علوم انسانی مورد استفاده قرار می‌گیرد و به ما امکان می‌دهد تا به سؤالات پژوهشی خود پاسخ دهیم. در این مقاله، نرم افزارهای تحلیل متن MaxQDA و NVivo مقایسه شده اند و قابلیت های مشابهی دارند. هر دو نرم افزار قابلیت های گسترده ای برای تحلیل متن را ارائه می‌دهند. با استفاده از این نرم افزارها، می‌توان متن‌ها را برچسب‌گذاری کرده و تحلیل‌های پیچیده را انجام داد. نرم افزار NVivo امکانات مانند تحلیل محتوا، تحلیل مفهومی و تحلیل شبکه‌های اجتماعی را نیز داراست.

تحلیل متن یکی از روش‌های مهم در پژوهش‌های علوم انسانی است که به ما امکان می‌دهد متن‌ها را بررسی و تحلیل کنیم و به دنبال الگوها، مفاهیم و روابط درون متن باشیم. با توجه به حجم بزرگ داده‌های متنی در دنیای امروز، استفاده از نرم افزارهای تحلیل متن ضروری است تا این کار را به صورت سریع و دقیق انجام دهیم.

در این مقاله، دو نرم افزار تحلیل متن بسیار معروف و قدرتمند، یعنی MaxQDA و NVivo معرفی و مقایسه می‌شوند. MaxQDA و NVivo هر دو ابزارهای قدرتمندی هستند که تحلیل متن را برای محققان و پژوهشگران آسان می‌کنند و امکانات و ویژگی‌های متنوعی را در اختیار کاربران قرار می‌دهند.

در بخش اول این مقاله، به معرفی تحلیل متن و اهمیت آن در پژوهش‌های علوم انسانی خواهیم پرداخت. در بخش دوم، نرم افزارهای MaxQDA و NVivo به طور جامع مورد بررسی قرار می‌گیرند و ویژگی‌ها، قابلیت‌ها و محدودیت‌های هر یک بررسی می‌شوند. در بخش سوم، راهنمایی برای استفاده از این دو نرم افزار پرطرفدار ارائه می‌شود تا به محققان و پژوهشگران کمک کند تا با استفاده از این ابزارها بهترین نتایج را در تحلیل متن‌ها به دست آورند.

با مطالعه این مقاله، خوانندگان می‌توانند با نرم افزارهای MaxQDA و NVivo آشنا شده و در انتخاب و استفاده از این ابزارها بهترین تصمیم‌ها را بگیرند. این مقاله برای پژوهشگران، دانشجویان و علاقه‌مندان به حوزه تحلیل متن و استفاده از نرم افزارهای مرتبط، ارزش آموزشی و کاربردی دارد.

1. معرفی تحلیل متن و اهمیت آن در پژوهش‌های علوم انسانی

تحلیل متن یکی از مهمترین ابزارها در پژوهش‌های علوم انسانی است. این روش، امکان بررسی و تحلیل دقیق و جامع متون را فراهم می‌کند و به ما اجازه می‌دهد تا به طور دقیق و جامع به سؤالات پژوهشی خود پاسخ دهیم.

اهمیت تحلیل متن در پژوهش‌های علوم انسانی به دلیل مجموعه‌ای از عوامل است. اولاً، تحلیل متن می‌تواند به ما کمک کند تا الگوها و مفاهیم کلیدی درون متون را شناسایی کنیم. با تجزیه و تحلیل متن، می‌توانیم بدانیم که کدام قسمت‌ها از متن به ماهیت موضوع اصلی مربوط می‌شوند و کدام قسمت‌ها جزئیات فرعی هستند.

دوماً، تحلیل متن امکان می‌دهد تا اطلاعات مختلفی را از متن استخراج کنیم. با استفاده از نرم افزارهای تحلیل متنی مانند Nvivo و maxqda، می‌توانیم به طور همزمان و همزمان داده‌ها را بررسی کنیم و اطلاعات مفید را استخراج کنیم. این اطلاعات می‌تواند شامل الگوها، مفاهیم، ارتباطات و تغییرات زمانی باشد.

سوماً، تحلیل متن به ما کمک می‌کند تا داده‌ها را به طور کمی و کیفی تجزیه و تحلیل کنیم. با استفاده از روش‌های تحلیل متن، می‌توانیم داده‌ها را به صورت کمی مانند تعداد ظاهر شدن یک الگو یا مفهوم خاص در متن محاسبه کنیم. همچنین، می‌توانیم داده‌ها را به صورت کیفی مانند نحوه تفسیر مفاهیم و روابط بین آن‌ها تحلیل کنیم.

به طور کلی، تحلیل متن با استفاده از نرم افزارهای مانند Nvivo و maxqda، به ما امکان می‌دهد تا به طور دقیق و جامع به سؤالات پژوهشی خود پاسخ دهیم و داده‌هایمان را به صورت کمی و کیفی تحلیل کنیم. این ابزارها به ما امکان می‌دهند تا به طور موثر و کارآمد به تجزیه و تحلیل و تفسیر داده‌هایمان بپردازیم و نتایج قابل اعتمادی را به دست آوریم.

2. مقایسه و بررسی نرم افزارهای تحلیل متن MaxQDA و NVivo

در این بخش، نرم افزارهای تحلیل متن MaxQDA و NVivo را مقایسه و بررسی خواهیم کرد. تحلیل متن به عنوان روشی برای بررسی داده های کیفی در تحقیقات اجتماعی و روانشناسی استفاده می شود. این روش امکان تحلیل و تفسیر داده های متنی را فراهم می کند و به محققان کمک می کند تا الگوها، موضوعات و روابط موجود در داده ها را شناسایی و تحلیل کنند.

MaxQDA و NVivo دو نرم افزار محبوب و قدرتمند برای تحلیل متن هستند. هر دو نرم افزار امکانات و قابلیت های مشابهی دارند، اما در بعضی جنبه ها تفاوت هایی نیز وجود دارد.

MaxQDA به عنوان یکی از پیشروان در زمینه تحلیل متن شناخته می شود. این نرم افزار امکانات گسترده ای برای تحلیل متن ارائه می دهد، از جمله قابلیت نشانه گذاری متن، تحلیل مضمون، تحلیل روایتی و تحلیل شبکه ای. همچنین، MaxQDA قابلیت های استنتاجی مانند تحلیل کددهی، تحلیل مقایسه ای و تحلیل ترکیبی را نیز ارائه می دهد. این نرم افزار برای تحلیل داده های بزرگ و پیچیده بسیار مناسب است و به کاربران امکان مشارکت در تحلیل های گروهی را نیز می دهد.

NVivo نیز یک نرم افزار قدرتمند و محبوب برای تحلیل متن است. این نرم افزار امکانات متنوعی را برای تحلیل متن ارائه می دهد، از جمله قابلیت تحلیل مضمون، تحلیل روایتی و تحلیل مفهومی. همچنین، NVivo قابلیت های تحلیلی مانند تحلیل کددهی، تحلیل مقایسه ای و تحلیل مدلی را نیز دارد. این نرم افزار امکاناتی برای تصویری سازی داده ها و ایجاد گزارش های تحلیلی نیز فراهم می کند.

در مقایسه این دو نرم افزار، مشخص است که هریک از آنها قابلیت ها و قابلیت های منحصر به فردی دارند. MaxQDA برای تحلیل داده های بزرگ و پیچیده بسیار مناسب است، در حالی که NVivo امکانات بیشتری برای تصویرسازی داده ها و ایجاد گزارش های تحلیلی دارد. بنابراین، انتخ

3. راهنمای استفاده از نرم افزارهای تحلیل متن MaxQDA و NVivo

راهنمای استفاده از نرم افزارهای تحلیل متن MaxQDA و NVivo

در دنیای امروز، تحلیل متن به عنوان یکی از روش‌های مهم در پژوهش‌های کیفی و کمی استفاده می‌شود. با رشد و توسعه فناوری، نرم افزارهای تحلیل متن نیز برای کمک به پژوهشگران در انجام تحلیل‌های کیفی و کمی بر روی متون، به کار گرفته می‌شوند. در این بخش، نرم افزارهای MaxQDA و NVivo را بررسی خواهیم کرد و راهنمای استفاده از آن‌ها را ارائه خواهیم داد.

MaxQDA یکی از محبوب‌ترین نرم افزارهای تحلیل متن است که قابلیت‌های گسترده‌ای برای تحلیل و مدیریت داده‌های متنی فراهم می‌کند. با استفاده از MaxQDA، می‌توانید متن‌های خود را برچسب‌گذاری کنید، کدهای مربوط به موضوعات و مفاهیم مختلف ایجاد کنید و تحلیل‌های متنی پیچیده را انجام دهید. برای استفاده از MaxQDA، ابتدا باید داده‌های متنی خود را وارد نرم افزار کنید. سپس می‌توانید با استفاده از ابزارهای موجود در نرم افزار، تحلیل‌های موردنظر خود را انجام دهید. برای مثال، می‌توانید متن‌ها را بر اساس مفاهیم و موضوعات مشترک گروه‌بندی کنید و تحلیل‌های مقایسه‌ای انجام دهید.

NVivo نیز یک نرم افزار تحلیل متن است که به پژوهشگران کمک می‌کند تا بتوانند از طریق تحلیل متون، الگوها و مفاهیم مختلف را شناسایی کنند. با استفاده از NVivo، می‌توانید متون خود را انتخاب کرده و به راحتی برچسب‌گذاری کنید. سپس با استفاده از ابزارهای موجود در NVivo، می‌توانید تحلیل‌های مختلفی مانند تجزیه و تحلیل محتوا، تحلیل مفهومی و تحلیل شبکه‌های اجتماعی را انجام دهید. برای استفاده از NVivo، باید ابتدا پروژه‌ای را ایجاد کنید و سپس متن‌ها و سایر منابع مرتبط را به پروژه اضافه کنید. در ادامه، می‌توانید با استفاده از ابزارهای متنی و تحلیلی NVivo، تحلیل‌های موردنظر خود را انجام دهید.

با توجه به مطالعه ما در مورد تحلیل متن و اهمیت آن در پژوهش‌های علوم انسانی، متوجه شدیم که استفاده از نرم افزارهای تحلیل متن مانند MaxQDA و NVivo می تواند به روش های تحقیقاتی در این زمینه کمک کند. با مقایسه و بررسی این دو نرم افزار، متوجه شدیم که هر یک دارای ویژگی ها و قابلیت های منحصر به فردی هستند که بر اساس نیازهای پژوهشگر می توانند انتخاب شوند. در نهایت، با ارائه راهنمای استفاده از این نرم افزارها، مطمئن شدیم که پژوهشگران می توانند به طور مؤثری از آن ها برای تحلیل و تفسیر داده های متنی خود استفاده کنند. در نتیجه، استفاده از نرم افزارهای تحلیل متن مانند MaxQDA و NVivo می تواند به پژوهشگران در بهبود کیفیت تحقیقات خود کمک کند و باعث افزایش اعتبار و قدرت تفسیری آن ها شود.

استفاده از افزونه فارسی ویراستیار در Word

نوشته

نرم افزار لیزرل و انجام مدلسازی معادلات ساختاری با آن

نوشته

چگونه در ورد متن را به‌صورت افقی و یا عمودی قرار دهیم؟!

نوشته

نشریات و مجلات معتبر بین المللی (ISI) در حوزه علوم و تکنولوژی هسته ای

نوشته

نحوه اضافه کردن تصاویر و متن در نرم افزار Word

نرم افزارهای تحلیل متن MaxQDA و NVivo: مقایسه، راهنمای استفاده و اهمیت تحلیل متن در پژوهش‌های علوم انسانی

فروشگاه محصولات

تحلیل داده های آماری

نرم افزار لیزرل و انجام مدلسازی معادلات ساختاری با آن

نرم افزار لیزرل و انجام مدلسازی معادلات ساختاری با آن

1- مدل معادلات ساختاری چیست؟

مدل يابي معادلات ساختاري (Structural equation modeling: SEM) يک تکنيک تحليل چند متغيري بسيار کلي و نيرومند از خانواده رگرسيون چند متغيري و به بيان دقيق‌تر بسط “مدل خطي کلي” (General linear model) یا GLM است. SEM به پژوهشگر امکان مي‌دهد مجموعه اي از معادلات رگرسيون را به صورت هم زمان مورد آزمون قرار دهد.

مدل يابي معادله ساختاري يک رويکرد جامع براي آزمون فرضيه‌هايي درباره روابط متغيرهاي مشاهده شده و مکنون است که گاه تحليل ساختاري کوواريانس، مدل يابي علّي و گاه نيز ليزرل (Lisrel) ناميده شده است اما اصطلاح غالب در اين روزها، مدل يابي معادله ساختاري يا به گونه خلاصه SEM است. (هومن 1384،11)

از نظر آذر (1381) نيز يکي از قوي‌ترين و مناسب‌ترين روش‌هاي تجزيه و تحليل در تحقيقات علوم رفتاري و اجتماعي، تجزيه و تحليل چند متغيره است زيرا اين گونه موضوعات چند متغيره بوده و نمي توان آنها را با شيوه دو متغيري (که هر بار يک متغير مستقل با يک متغير وابسته در نظر گرفته مي‌شود) حل نمود.

«تجزيه و تحليل ساختارهاي کوواريانس» يا همان «مدل يابي معادلات ساختاري»، يکي از اصلي‌ترين روش‌هاي تجزيه و تحليل ساختار داده‌هاي پيچيده و يکي از روش‌هاي نو براي بررسي روابط علت و معلولي است و به معني تجزيه و تحليل متغيرهاي مختلفي است که در يک ساختار مبتني بر تئوري، تاثيرات همزمان متغيرها را به هم نشان مي‌دهد. از طريق اين روش مي‌توان قابل قبول بودن مدل‌هاي نظري را در جامعه‌هاي خاص با استفاده از داده‌هاي همبستگي، غير آزمايشي و آزمايشي آزمود.

2- انديشه اساسي و زيربنايی مدل يابي ساختاري

يکي از مفاهيم اساسي که در آمار کاربردي در سطح متوسط وجود دارد اثر انتقالهاي جمع پذير و ضرب پذير در فهرستي از اعداد است. يعني اگر هر يک از اعداد يک فهرست در مقدار ثابت K ضرب شود ميانگين اعداد در همان K ضرب مي‌شود و به اين ترتيب، انحراف معيار استاندارد در مقدار قدر مطلق  K  ضرب خواهد شد.

نکته اين است که اگر مجموعه اي از اعداد X با مجموعه ديگري از اعداد Y از طريق معادله Y=4X   مرتبط باشند در اين صورت واريانس Y بايد 16 برابر واريانس X باشد و بنابراين از طريق مقايسه واريانس‌هاي X و Y مي‌توانيد به گونه غير مستقيم اين فرضيه را که Y و X از طريق معادله Y=4X با هم مرتبط هستند را بيازماييد.

اين انديشه از طريق تعدادي معادلات خطي از راه‌هاي مختلف به چندين متغير مرتبط با هم تعميم داده مي‌شود. هرچند قواعد آن پيچيده‌تر و محاسبات دشوارتر مي‌شود، اما پيام کلي ثابت مي‌ماند. يعني با بررسي واريانسها و کوواريانسهاي متغيرها مي‌توانيد اين فرضيه را که “متغيرها از طريق مجموعه اي از روابط خطي با هم مرتبط اند” را بيازماييد.

توسعه مدل‌هاي علّي و همگرايي روش‌هاي اقتصادسنجي، روان سنجي و غیره

توسعه مدل‌هاي علّي متغيرهاي مکنون معرف همگرايي سنتهاي پژوهشي نسبتا مستقل در روان سنجي، اقتصادسنجي، زيست شناسي و بسياري از روشهاي قبلا آشناست که آنها را به شکل چهارچوبي وسيع در مي‌آورد. مفاهيم متغيرهاي مکنون (Latent variables)  در مقابل متغيرهاي مشاهده شده (Observed variables)  و خطا در متغيرها، تاريخي طولاني دارد.

در اقتصادسنجي آثار جهت دار هم زمان چند متغير بر متغيرهاي ديگر، تحت برچسب مدلهاي معادله همزمان بسيار مورد مطالعه قرار گرفته است. در روان سنجي به عنوان تحليل عاملي و تئوري اعتبار توسعه يافته و شالوده اساسي بسياري از پژوهش‌هاي اندازه گيري در روانسنجي مي‌باشد. در زيست شناسي، يک سنت مشابه همواره با مدلهاي معادلات همزمان (گاه با متغيرهاي مکنون) در زمينه نمايش و طرح برآورده در تحليل مسير سر و کار دارد.

3- موارد کاربرد روش ليزرل

روش ليزرل ضمن آنکه ضرايب مجهول مجموعه معادلات ساختاري خطي را برآورد مي‌کند براي برازش مدلهايي که شامل متغيرهاي مکنون، خطاهاي اندازه گيري در هر يک از متغيرهاي وابسته و مستقل، عليت دو سويه، هم زماني و وابستگي متقابل مي‌باشد طرح ريزي گرديده است.

اما اين روش را مي‌توان به عنوان موارد خاصي براي روشهاي تحليل عاملي تاييدي، تحليل رگرسيون چند متغيري، تحليل مسير، مدلهاي اقتصادي خاص داده‌هاي وابسته به زمان، مدلهاي برگشت پذير و برگشت ناپذير براي داده‌هاي مقطعي/ طولي، مدلهاي ساختاري کوواريانس و تحليل چند نمونه اي (مانند آزمون فرضيه‌هاي برابري ماتريس کوواريانس هاي، برابري ماتريس همبستگي ها، برابري معادلات و ساختارهاي عاملي و غيره) نيز به کار برد.

4- نرم افزار ليزرل چیست؟

ليزرل يک محصول نرم افزاري است که به منظور برآورد و آزمون مدلهاي معادلات ساختاري طراحي و از سوي “شرکت بين المللي نرم افزار علمي”

Scientific software international  (www.ssicentral.com)

به بازار عرضه شده است. اين نرم افزار با استفاده از همبستگي و کوواريانس اندازه گيري شده، مي‌تواند مقادير بارهاي عاملي، واريانسها و خطاهاي متغيرهاي مکنون را برآورد يا استنباط کند و از آن مي‌توان براي اجراي تحليل عاملي اکتشافي، تحليل عاملي مرتبه دوم، تحليل عاملي تاييدي و همچنين تحليل مسير (مدل يابي علت و معلولي با متغيرهاي مکنون) استفاده کرد.

تحلیل ساختاری کوواریانس که به آن روابط خطی ساختاری نیز می گویند، یکی از تکنیک های تحلیل مدل معادلات ساختاری است. جالب است بدانید که نام LISREL از عبارت

Linear Structural Relations 

که به معنای روابط خطی ساختاری است، بدست آمده است.

5- تحليل عاملي اکتشافي (efa) و تحليل عاملي تاييدي (cfa)

تحليل عاملي مي‌تواند دو صورت اکتشافي و تاييدي داشته باشد. اينکه کدام يک از اين دو روش بايد در تحليل عاملي به کار رود مبتني بر هدف تحليل داده هاست.

تحليل عاملی اکتشافي

در تحليل عاملی اکتشافي(Exploratory factor analysis) پژوهشگر به دنبال بررسي داده‌هاي تجربي به منظور کشف و شناسايي شاخص‌ها و نيز روابط بين آنهاست و اين کار را بدون تحميل هر گونه مدل معيني انجام مي‌دهد. به بيان ديگر تحليل عاملی اکتشافي علاوه بر آنکه ارزش تجسسي يا پيشنهادي دارد مي‌تواند ساختارساز، مدل ساز يا فرضيه ساز باشد.

تحليل اکتشافي وقتي به کار مي‌رود که پژوهشگر شواهد کافي قبلي و پيش تجربي براي تشکيل فرضيه درباره تعداد عامل‌هاي زيربنايي داده‌ها نداشته و به واقع مايل باشد درباره تعيين تعداد يا ماهيت عامل‌هايي که همپراشي بين متغيرها را توجيه مي‌کنند داده‌ها را بکاود. بنابر اين تحليل عاملی اکتشافي بيشتر به عنوان يک روش تدوين و توليد تئوري و نه يک روش آزمون تئوري در نظر گرفته مي‌شود.

تحليل عاملي اکتشافي روشي است که اغلب براي کشف و اندازه گيري منابع مکنون پراش و همپراش در اندازه گيري‌هاي مشاهده شده به کار مي‌رود. پژوهشگران به اين واقعيت پي برده اند که تحليل عاملي اکتشافي مي‌تواند در مراحل اوليه تجربه يا پرورش تستها کاملا مفيد باشد. توانشهاي ذهني نخستين ترستون، ساختار هوش گيلفورد نمونه‌هاي خوبي براي اين مطلب مي‌باشد. اما هر چه دانش بيشتري درباره طبيعت اندازه گيري‌هاي رواني و اجتماعي به دست آيد ممکن است کمتر به عنوان يک ابزار مفيد به کار رود و حتي ممکن است بازدارنده نيز باشد.

از سوي ديگر بيشتر مطالعات ممکن است تا حدي هم اکتشافي و هم تاييدي باشند زيرا شامل متغير معلوم و تعدادي متغير مجهول‌اند. متغيرهاي معلوم را بايد با دقت زيادي انتخاب کرد تا حتي الامکان درباره متغيرهاي نامعلومي که استخراج مي‌شود اطلاعات بيشتري فراهم‌ايد. مطلوب آن است که فرضيه اي که از طريق روش‌هاي تحليل اکتشافي تدوين مي‌شود از طريق قرار گرفتن در معرض روش‌هاي آماري دقيق‌تر تاييد يا رد شود. تحليل عاملی اکتشافي نيازمند نمونه‌هايي با حجم بسيار زياد مي‌باشد.

تحليل عاملي تاييدي

در تحليل عاملي تاييدي (Confirmatory factor analysis) ، پژوهشگر به دنبال تهيه مدلي است که فرض مي‌شود داده‌هاي تجربي را بر پايه چند پارامتر نسبتا اندک، توصيف تبيين يا توجيه مي‌کند. اين مدل مبتني بر اطلاعات پيش تجربي درباره ساختار داده هاست که مي‌تواند به شکل:

1) يک تئوري يا فرضيه

2) يک طرح طبقه بندي کننده معين براي گويه‌ها يا پاره تستها در انطباق با ويژگي‌هاي عيني شکل و محتوا

3)شرايط معلوم تجربي

و يا    4) دانش حاصل از مطالعات قبلي درباره داده‌هاي وسيع باشد.

تمايز مهم روش‌هاي تحليل اکتشافي و تاييدي در اين است که روش اکتشافي با صرفه‌ترين روش تبيين واريانس مشترک زيربنايي يک ماتريس همبستگي را مشخص مي‌کند. در حالي که روش‌هاي تاييدي (آزمون فرضيه) تعيين مي‌کنند که داده‌ها با يک ساختار عاملي معين (که در فرضيه آمده) هماهنگ اند يا نه.

ضمنا خاطر نشان می شود برای دریافت ویدئوی آموزشی تحلیل عاملی تاییدی در نرم افزار لیزرل می توانید به این صفحه مراجعه نمایید:

6- آزمون‌هاي برازندگي مدل کلي

با آنکه انواع گوناگون آزمون‌ها که به گونه کلي شاخص‌هاي برازندگي(Fitting indexes) ناميده مي‌شوند پيوسته در حال مقايسه، توسعه و تکامل مي‌باشند اما هنوز درباره حتي يک آزمون بهينه نيز توافق همگاني وجود ندارد. نتيجه آن است که مقاله‌هاي مختلف، شاخص‌هاي مختلفي را ارائه کرده اند و حتي نگارش‌هاي مشهور برنامه‌هاي SEM مانند نرم افزارهاي lisrel, Amos, EQS نيز تعداد زيادي از شاخص‌هاي برازندگي به دست مي‌دهند.(هومن1384 ،235)

اين شاخص‌ها به شيوه‌هاي مختلفي طبقه بندي شده اند که يکي از عمده‌ترين آنها طبقه بندي به صورت مطلق، نسبي و تعديل يافته مي‌باشد. برخي از اين شاخص ها عبارتند از:

1-6- شاخص‌هاي  GFI و  AGFI

شاخص GFI – Goodness of fit index  مقدار نسبي واريانس‌ها و کوواريانس‌ها را به گونه مشترک از طريق مدل ارزيابي مي‌کند. دامنه تغييرات GFI بين صفر و يک مي‌باشد. مقدار GFI بايد برابر يا بزرگتر از  0.09  باشد.

شاخص برازندگي ديگر Adjusted Goodness of Fit Index – AGFI    يا همان مقدار تعديل يافته شاخص GFI براي درجه آزادي مي‌باشد. اين مشخصه معادل با کاربرد ميانگين مجذورات به جاي مجموع مجذورات در صورت و مخرج (1- GFI) است. مقدار اين شاخص نيز بين صفر و يک مي‌باشد. شاخص‌هاي GFI  و  AGFI  را که جارزکاگ و سوربوم (1989) پيشنهاد کرده اند بستگي به حجم نمونه ندارد.

2-6- شاخص RMSEA

اين شاخص , ريشه ميانگين مجذورات تقريب مي‌باشد.

شاخص Root Mean Square Error of Approximation – RMSEA براي مدل‌هاي خوب برابر 0.05 يا کمتر است. مدلهايي که RMSEA  آنها 0.1 باشد برازش ضعيفي دارند.

3-6- مجذور کاي

آزمون مجذور كاي (خي دو) اين فرضيه را مدل مورد نظر هماهنگ با الگوي همپراشي بين متغيرهاي مشاهده شده است را مي‌آزمايد، کميت خي دو بسيار به حجم نمونه وابسته مي‌باشد و نمونه بزرگ کميت خي دو را بيش از آنچه که بتوان آن را به غلط بودن مدل نسبت داد, افزايش مي‌دهد. (هومن.1384. 422).

4-6- شاخص  NFI و CFI

شاخصNFI (که شاخص بنتلر-بونت هم ناميده مي‌شود) براي مقادير بالاي 0.09  قابل قبول و نشانه برازندگي مدل است. شاخص CFI  بزرگتر از 0.09  قابل قبول و نشانه برازندگي مدل است. اين شاخص از طريق مقايسه يک مدل به اصطلاح مستقل که در آن بين متغيرها هيچ رابطه اي نيست با مدل پيشنهادي مورد نظر، مقدار بهبود را نيز مي‌آزمايد. شاخص CFI  از لحاظ معنا مانند NFI  است با اين تفاوت که براي حجم گروه نمونه جريمه مي‌دهد.

شاخص‌هاي ديگري نيز در خروجي نرم افزار ليزرل ديده مي‌شوند که برخي مثل AIC,  CAIC  ECVA  براي تعيين برازنده‌ترين مدل از ميان چند مدل مورد توجه قرار مي‌گيرند.

براي مثال مدلي که داراي کوچکترين AIC ,CAIC ,ECVA باشد برازنده‌تر است.(هومن1384 ،244-235) برخي از شاخص‌ها نيز به شدت وابسته به حجم نمونه اند و در حجم نمونه‌هاي بالا مي‌توانند معنا داشته باشند.

برگرفته از سایت اطمینان شرق

مقاله نویسی

مدل معادلات ساختاری (Structural Equation Modeling) — مفاهیم، روش‌ها و کاربردها

مدل معادلات ساختاری (Structural Equation Modeling) — مفاهیم، روش‌ها و کاربردها

«مدل معادلات ساختاری» (Structural Equation Modeling)،‌ ابزاری قدرتمند در تحلیل‌های چند متغیره آماری محسوب می‌شود. این روش که به اختصار SEM نیز نامیده می‌شود، از روش‌هایی که در تحلیل چند متغیره وجود دارد در حالت خاص استفاده کرده و مدل‌هایی مناسب برای داده‌هایی مربوط به تحقیقات کیفی ارائه می‌دهد.

 کاربرد مدل معادلات ساختاری

در SEM از مفاهیم ساده‌ای مانند واریانس و کوواریانس به عنوان معیارهایی برای اندازه‌گیری پراکندگی یا وابستگی بین متغیرها استفاده کرده و مدل مناسب با داده‌ها با کمترین متغیر یا ایجاد متغیرهای جدید، تولید می‌شود.

از کاربردهای مهم مدل معادلات ساختاری می‌توان به موارد زیر اشاره کرد:

  1. «تحلیل مسیر» (Path Analysis) یا مدلی که  رابطه بین متغیرها را نشان می‌دهد.
  2. «تحلیل عاملی تاییدی» (Confirmatory Factor Analysis) که شبیه تحلیل عاملی است و آزمون‌های مربوط به وزن عامل (ضریب هر عامل) و همبستگی درونی را انجام می‌دهد.
  3. «تحلیل عاملی مرتبه دوم» (Second Order Factor Analysis) که در آن ماتریس همبستگی عوامل، خود قابل تجزیه به عوامل دیگری است که «عوامل ثانویه» (Second Order Factors) خوانده می‌شوند.
  4. «مدل تحلیل رگرسیونی» (Regression Models)،‌ که از رگرسیونی خطی استفاده کرده و با منظور تخصیص وزن به هر یک از متغیرها، مدل کمترین مربعات خطا را می‌سازد.
  5. «مدل ساختار کوواریانس» (Covariance Structure Models) که به بررسی ساختار و شکل ماتریس کوواریانس می‌پردازد و در مورد آن آزمون فرض انجام می‌دهد.
  6. «مدل ساختار همبستگی» (Correlation Structure Models)، که آزمون‌های فرض مربوط به ساختار ماتریس همبستگی را محاسبه می‌کند.

با توجه به گزینه‌هایی زیادی که معادلات ساختاری با آن مواجه است، تفکیک و تعریف دقیق آن به آسانی میسر نیست. آنچه اهمیت دارد، ابزارهایی است که SEM از آن‌ها بهره می‌گیرد.

شیوه به کارگیری مدل معادلات ساختاری

ایده اصلی در مدل معادلات ساختاری، تاثیر عمل جمع و ضرب روی اعداد است. همانطور که در مطلب مربوط به مباحث میانگین و واریانس خوانده‌اید، می‌دانیم که اگر همه مقدارها در یک عدد ثابت (مثل k) ضرب شوند، میانگین آن‌ها هم در همان مقدار ضرب خواهد شد. یعنی اگر داشته باشیم y=kx�=��، آنگاه خواهیم داشت ¯¯¯y=k¯¯¯x�¯=��¯. همچنین واریانس اعداد تبدیل یافته نیز در k2�2 ضرب خواهد شد یعنی می‌توان نوشت:

σ2y=k2σ2x��2=�2��2.

بر این اساس برای انحراف استاندارد داده‌های تبدیل شده هم رابطه زیر برقرار است:

sy=|k|sx��=|�|��

نکته‌ای که در اینجا به کار می‌آید، آن است که فرض کنید بین Y و X یک رابطه خطی به صورت Y=4X وجود دارد. در نتیجه واریانس Y باید ۱۶ برابر واریانس X باشد. با تصور معکوس این حالت می‌توان با مقایسه واریانس Yها با ۱۶ برابر واریانس Xها، آزمون مربوط مناسب بودن مدل Y=4X را با توجه به داده‌ها انجام داد.

این ایده را می‌توان برای چندین متغیر همبسته در گروهی از مدل‌های خطی به کار بست. هرچند در این حالت تعداد محاسبات و مدل‌های انتخابی زیاد هستند ولی اساس کار به همان شکل خواهد بود.

«بررسی وجود رابطه خطی بین متغیرها را می‌توان به بررسی واریانس و کووریانس آن‌ها تبدیل کرد.»

روش‌های آماری مختلفی برای بررسی چنین کاری وجود دارد که ساختار «ماتریس واریانس-کوواریانس» (Variance-Covariance Matrix) را تحلیل می‌کنند. به این ترتیب روش SEM طی مراحل زیر اجرا می‌شود:

  1. متغیرهایی مرتبط و همبسته در مدل معرفی می‌شوند. این کار ممکن است بوسیله یک دیاگرام مسیر انجام شود.
  2. براساس داده‌ها مشخص می‌شود که چه مقدار از رابطه بین متغیرها از طریق واریانس و کوواریانس متغیرها قابل تجزیه و تحلیل است.
  3. به کمک آزمون فرض مشخص می‌شود که مدل انتخابی در بخش ۱ به چه میزان از لحاظ آماری بامعنا (Statistical Significant) است.
  4. نتایج حاصل از آزمون فرض آماری و ضرایب یا پارامترهای مدل مشخص می‌شود.
  5. براساس این اطلاعات، مشخص می‌شود که آیا داده‌ها توسط مدل قابل تفسیر هستند یا باید به معرفی مدل یا متغیرهای جدید دست زد.

هرچند محاسبات مربوط به روند SEM پیچیده و طولانی است ولی امروزه برنامه‌های زیادی به منظور انجام چنین محاسباتی موجود است. ولی آنچه حائز اهمیت محسوب می‌شود الگویی است که در انجام تحلیل SEM وجود دارد. برای راحتی کار مراحل بالا را در نمودار گردشی زیر می‌بینید.

SEM diagram

باید توجه داشت که هرگز بهترین مدل برای داده‌ها را نمی‌توان بوجود آورد. البته اگر برای داده‌های موجود بهترین مدل ساخته شود برای داده‌های جدید ممکن است مدل ایجاد شده مناسب نباشد. در این حالت مدل را «بیش‌برازش» (Overfitting) می‌نامند زیرا با در نظر گرفتن بیشترین تعداد متغیر در طراحی مدل، داده‌های موجود توسط مدل حفظ و رابطه‌شان به طور مصنوعی ایجاد شده است. همیشه رابطه‌های معرفی شده توسط مدل‌های آماری، تقریبی از مدل واقعی رابطه بین متغیرها هستند. زیرا براساس یک نمونه آماری از جامعه ساخته شده‌اند. بنابراین بهتر است به جای اصطلاح «بهترین برازش» (Best Fit) از «مناسب‌ترین برازش» (Good Fit) استفاده کنیم.https://beta.kaprila.com/a//templates_ver2/templates.php?ref=blog.faradars&id=string-1&t=string&w=760&h=140&background=fffff3&cid=2995531,2305,1012&wr=special,brother,brother&pid=54

نمودار مسیر و SEM

به منظور معرفی مدل در SEM از الگویی به نام «نمودار مسیر» (Path Diagram) استفاده می‌شود. این نمودار شبیه یک «نمودار گردش» (Flow Chart) است که در آن متغیرهای مرتبط بوسیله خطوطی در آن به یکدیگر متصل می‌شوند.

برای مثال فرض کنید که رابطه رگرسیونی خطی بین دو متغیر X و Y وجود دارد. یعنی داریم Y=aX+e که در آن a پارامتر مدل و e نیز خطای مدل محسوب می‌شوند. برای نمایش این رابطه در نمودار مسیر از شکل زیر استفاده می‌کنیم.

sem path diagram

در این نمودار، همه متغیرهای مستقل در سمت چپ قرار دارند. متغیر مربوط به خطا نیز معرفی شده است. با توجه به میزان خطا در برآورد رابطه خطی بین دو متغیر X و Y متغیر دیگری که نقش مزاحم را دارد در مدل با E‌ دیده می‌شود. با مشخص شدن پارامترهای مدل برای هر متغیر مستقل، ضریب آن متغیر روی خط ارتباطی با متغیر وابسته دیده خواهد شد. این ضریب در صورتی که داده‌‌ها استاندارد شده باشند، می‌تواند به عنوان میزان اهمیت این متغیر در پیش‌بینی متغیر وابسته در نظر گرفته شود.

در هنگام معرفی مدل، ممکن است «متغیرهای پنهان» (Latent Variable) نیز در آن ایجاد شود. متغیر پنهان،‌ بدون آنکه در مرحله جمع‌آوری داده‌ها به عنوان یک متغیر تعریف شده باشد، به علت وجود رابطه بین متغیرهای مستقل ممکن است،‌ توسط روند SEM معرفی شود.

مثلا در بررسی قیمت خودرو با توجه به ویژگی‌هایی آن ممکن است حجم موتور، قدرت موتور و مصرف سوخت به عنوان متغیرهای مستقل اندازه‌گیری شده باشند ولی در واقعیت متوجه شویم که بین آن‌ها رابطه شدیدی وجود دارد و عملا به کارگیری آن‌ها در مدل رگرسیونی مناسب نیست. بنابراین ترکیبی خطی از آن‌ها را به عنوان متغیر پنهان که از ابتدا قابل اندازه‌گیری نبوده است در مدل اضافه می‌کنیم.

ویژگی موتوری=a × حجم موتور+b × قدرت موتور+c× مصرف سوخت

همچنین عامل دیگری به نام راحتی خودرو که به متغیرهای حجم اتاق و حجم صندوق عقب وابسته است، به عنوان یک متغیر پنهان دیگر در مدل حضور یابد.

راحتی خودرو=d × حجم اتاق+e × حجم صندوق عقب

این عوامل باعث می‌شوند که بین مولفه‌های جدید به عنوان متغیرهای پنهان کمترین وابستگی وجود داشته باشد و مدل حاصل از آن‌ها از اعتبار بیشتری برخوردار خواهد بود.

محاسبات مربوط به معادلات ساختاری در اغلب موارد در نرم‌افزارهای آماری AMOS یا نرم‌افزار لیزرل (LISREL) صورت می‌گیرد.

برگرفته از سایت فرادرس

پایان نامه نویسی مقاله نویسی

مقدار T-Value و مقدار P-Value در آزمون فرض آماری چیست؟

مقدار T-Value و مقدار P-Value در آزمون فرض آماری چیست؟

1- مفدمه بر آزمون فرض آماری

مطابق با الزامات استانداردهای ISO 15189:2022 و ISO/IEC 17025:2017 آزمایشگاه باید یک روش‌ اجرایی برای پایش اعتبار نتایج، داشته باشد.

داده‌های به دست آمده باید به نحوی ثبت شوند که روند آن‌ها قابل تشخیص باشد.

در جایی که قابل اجرا است از فنون آماری در بازنگری نتایج استفاده شود.

در بسیاری از مراکز آزمایشگاهی از آزمونهای فرض آماری برای کنترل کیفیت نتایج آزمون، تحلیل نتایج مقایسات بین آزمایشگاهی و یا صحه گذاری روشهای آزمون برای برآوزده‌سازی الزامات استاندارد ایزو 17025 و استاندارد ایزو 15189 استفاده می‌شود.

اگر کارکنان آزمایشگاه و یا پژوهشگران با علم آمار آشنایی نداشته باشند و به دنبال استفاده از از نرم افزارهای آماری مانند minitab, spss و … برای تجزیه و تحلیل نتایج خود باشند، در مواجه با خروجی‌های این نرم افزارها احساسی شبیه احساس آلیس در سرزمین عجایب را پیدا خواهند کرد.

ناگهان آنها با یک دنیا فانتزی که در آن عبارات عجیب و مرموزی وجود دارد، روبه رو می‌شوند.

به عنوان مثال ظهور مقادیر T و P را در انجام آزمون فرض t-test را در نظر بگیرید.

در مشاهد این خروجی شما ممکن است بسیار متعجب شوید!!

نتایج آزمون T-TEST یک طرفه

این مقادیر واقعاً چیست؟

آنها از کجا بدست آمده‌اند؟

حتی اگر شما از مقدار P-value برای تفسیر آماری نتایج خود به دفعات بسیار زیاد استفاده کرده باشید، باز هم ممکن است منشا واقعی آن ممکن هنوز برای شما گنگ باشد.

2- مقادیر P value و t-value در آزمون T-Test

مقدار P value و مقدار t-value به طور جدایی ناپذیری با هم مرتبط است.

آنها به صورت خیلی مشابه در کنار هم نتایج تجزیه و تحلیل آماری ظاهر می‌شوند. 

هنگامی که شما آزمون t-test را انجام می‌دهید، معمولا برای پیدا کردن شواهدی از یک اختلاف معنی داری در میان دو جمعیت (۲-sample t) و یا بین یک جمعیت مقدار هدف (۱-sample t) هستید.

به عنوان مثال در مقایسه بین آزمایشگاهی به دنبال آن هستیم که ببینم نتایج بدست آمده در دو آزمایشگاه مختلف بر روی یک نمونه یکسان بایکدیگر اختلاف معناداری دارند یا نه؟

مقدار t اندازه تفاوت را نسبت به تغییرپذیری بدست آمده از نمونه‌ها را می‌سنجد.

 به عبارت دیگر، T برابر با تفاوت محاسبه شده تقسیم بر خطای استاندارد (SE MEAN) است.

هر چه مقدار T (چه در جهت مثبت و چه در جهت منفی) بزرگتر باشد احتمال بیشتری برای رد فرض صفر به وجود خواهد آمد  و هر چه مقدار T به صفر نزدیکتر باشد احتمال بیشتری برای پذیرش فرض صفر وجود خواهد داشت. (فرض صفر یعنی تفاوت معنی‌داری وجود ندارد.)

بخاطر داشته باشید که مقدار t که در خروجی نرم افزار نشان داده شده است بر اساس تنها یک نمونه که به صورت تصادفی از کل جمعیت گرفته شده، محاسبه می گردد و اگر نمونه‌برداری تصادفی را مجدداً انجام دهید ممکن است مقدار  t کمی متفاوت از آنچه قبلا محاسبه کرده‌اید، بدست آید.

حال این سئوال مطرح می‌شود که در بسیاری از نمونه های که به صورت تصادفی از یک جمعیت یکسان گرفته می‌شود، چقدر تفاوت در مقدار t انتظار داریم که به وجود آید؟

 و چگونه مقدار t بدست آمده از داده های مربوط به نمونه خود را نسبت به مقدار t مورد انتظار مقایسه کنیم؟

این کار را می‌توان با رسم یک توزیع t انجام داد.


3- استفاده از یک تابع توزیع t برای محاسبه احتمال

به عنوان مثال فرض کنید که با استفاده از یک آزمون فرض آماری به روش ۱-sample t-test  می خواهید تعیین کنید که یک ویژگی در جمعیت مورد مطالعه بزرگتر از یک مقدار مشخص می‌باشد یا خیر؟

در این مثال مقدار مشخص ۵ در نظر گرفته شده که از یک نمونه با ۲۰ مشاهده بدست آمده است.

همانطور که در شکل بالا نشان داده شده مقدار t‌ در خروجی نرم افزار minitab برابر با ۲٫۸ بدست آمده است.

لذا می‌خواهیم ببینم در یک تابع توزیع T با درجه آزادی ۱۹ (درجه آزادی برابر است با تعداد مشاهدات منهای یک) احتمال آنکه مقدار t‌ برابر با ۲٫۸ شود چقدر است. 

برای انجام این کار از نرم افزار minitab ‌می توان استفاده نمود بدین منظور در این نرم افزار  مسیر زیر را طی می کنیم:

In Minitab, choose Graph > Probability Distribution Plot.

Select View Probability, then click OK.

From Distribution, select t.

In Degrees of freedom, enter ۱۹.

Click Shaded Area. Select X Value. Select Right Tail.

 In X Value, enter 2.8 (the t-value), then click OK.

بیشترین مقدار مورد انتظار برای t محلی است که قله گراف بالا قرار دارد (یعنی مقدار صفر).  این بدان معنا است که در بیشتر واقع انتظار می‌رود که مقدار t=0 شود.

علت این امر آن است که وقتی یک نمونه به صورت تصادفی از یک جامعه برداشته می شود انتظار می رود که اختلافی بین میانگین نمونه با میانگین جامعه وجود نداشته باشد یعنی به احتمال زیاد اختلاف بین میانگین نمونه و میانگین جامعه نزدیک به صفر است.


4- مجاسبه مقدار T-Value و مقدار P-Value

احتمال اینکه مقدار T-value (چه در جهت مثبت و چه در جهت منفی) در آزمونهای فرض آماری مقدار بزرگی شود خیلی کم است. یعنی آنکه هر چه از مقدار صفر در هر دو جهت دور می شویم احتمال رخداد چنین وضعیتی به صورت طبیعی کاهش می یابد. به عنوان مثال ناحیه قرمز مشخص شده در منحی فوق احتمال اینکه مقدار T-Value برابر با ۲٫۸  و بیشتر از آن باشد را نشان می‌دهد. احتمال این امر  ۰٫۰۰۵۷۱۲ محاسبه شده است که اگر آن را گرد کنیم برابر با ۰٫۰۰۶ می شود که به این مقدار P-Value گفته می شود.

به عبارت دیگر، احتمال به دست آوردن T-Value برابر با ۲٫۸ و یا بالاتر، زمانی که نمونه برداری از جمعیت یکسان (در مثال، یک جمعیت با میانگین ۵ در نظر گرفته شده)، حدود ۰٫۰۰۶ است.

چقدر احتمال این رخ داد وجود دارد؟ این رخداد مثل آن است که در برداشت تصادفی از ۵۲ برگ در بازی پوکر ۲ برگ تک پشت سر هم به دست شما برسد. شناس چنین رخدادی بسیار کم است!!

poker_picture

این امر که این نمونه‌ از جامعه‌ی با میانگین بیشتری از مقدار مشخص شده (در این مثال ۵) باشند، محتمل تر است.  بعبارت دیگر: از آنجا که مقدار P-value بسیار کوچک تر از (< alpha level)  است، شما فرض صفر رد و نتیجه گیری است که تفاوت معنی داری وجود دارد.

مقادیر T و P به طور جدایی ناپذیری مرتبط هستند و به سادگی می‌توانید از آنها برای تصمیم در خصوص درست یا نادرست بودن یک فرض استفاده کنید. مقدار یکی از آنها بدون تغییر در دیگری، تغییر نخواهد کرد. مقادیر بزرگتر قدرمطلق T-Value منجر به مقادیر کوچکتر P-value می‌شود که امر سبب کاهش احتمال پذیرش فرض صفر می‌شود. به طور  معمول مطالعات آماری در سطح اطمینان ۹۵% (یعنی آلفای برابر با ۰٫۰۵) انچام می‌شود.

در سطح اطمینان ۹۵% اگر P-value  کوچکتر یا مساوی ۰٫۰۵ باشد فرض صفر را رد می‌کنند و در غیر این صورت فرض صفر را نمی توان رد کرد. 


5- سخن پایانی

نکته آخر اینکه که در برخی از نرم افزارها مانند spss مقدار p-value در جدول های خروجی نرم افزار تحت عنوان Significant Level ذکر می‌شود. در این پست آموزشی برخی از نکات مهم برای در خصوص آزمون فرض T-TEST و مقدار P-Value ذکر شود.

برگرفته از سایت دکتر دستمردی

آموزش پیشرفته sPSS

نمره گذاری متغیر ها در Spss جمع نمرات یا میانگین نمرات؟

نمره گذاری متغیر ها در Spss جمع نمرات یا میانگین نمرات؟

پس از جمع آوری داده ها با استفاده از ابزارهای پژوهشی مانند پرسشنامه ، مصاحبه و … و وارد کردن داده های خام به نرم افزار spss نوبت به تعریف نمره متغیر ها و ابعاد آن ها می رسد.

در تعریف عملیاتی و حساب کردن نمره؟ی متغیر ها دو رویکرد وجود دارد.

رویکرد اول می گوید فقط نمره ی سولات جمع بشود و با جمع نمرات سوالات مربوط به هر متغیر نمره ی آن متغیر یا ابعاد حساب شود.

بعضی از استادید بنا به نظرات خود این رویکردرا قبول می کنند.

رویکرد دوم می گوید بعد از جمع نمره سوالات ، نمره ی بدست آمده تقسیم بر تعداد سوالات بشود تا مثلاً نمرات مطابق طیف لیکرت بشوند.

بعضی از اساتید رویکرد دومی را قبول دارند.

ولی در اصل تفاوتی بین آن ها نیست و هر دو روش درستند و در آزمون فرضیه هیچ فرقی با هم نخواهند داشت.

بنده معتقدم روش دومی بهتر است چون راحت تر میشه میانگین ها را با هم مقایسه کرد.

البته اگر درجه بندی ها مثل هم باشد!

نظر شما چیست؟

برای نمره گذاری متغیرها در spss پیشنهاد می شود فیلم زیر را مشاهده نمایید.

با تشکر از نظرات ارزشمند کاربران محترم.

تحلیل داده های آماری

نحوه نوشتن فصل چهارم پایان نامه و تحلیل داده ها

نحوه نوشتن فصل چهارم پایان نامه و تحلیل داده ها

برای نگارش هر فصل پایان‌نامه ، نکات و دستوراتی وجود دارد که دانشجویان باید از آن‌ها مطلع باشند و با رعایت اصول و استانداردها، پایان‌نامه‌ای باکیفیت بنویسند.

یکی از مراحل مهم انجام پایان‌نامه نحوه تحلیل داده‌های جمع آوری شده است که  در فصل چهارم پایان‌نامه است و اینکه چگونه فصل چهارم پایان‌نامه را بنویسیم..

فصل 4  و 5 پایان نامه در واقع مانند مرحله برداشت کشاورز از محصول کاشته شده است. پس نحوه ی انجام این دو فصل بسیار مهم و البته نیاز به کار تخصصی دارد.

ما در سایت روا20 سعی می‌کنیم نحوه نوشتن فصل چهارم پایان‌نامه را توضیح دهیم و به نکات مهم آن اشاره کنیم.

به ویژه شما را با نرم افزارهای تخصصی آماری آشنا خواهیم کرد.

فصل چهارم هر پایان‌نامه‌ای معمولا به نتایج به دست آمده از تجزیه و تحلیل داده‌ها اختصاص دارد و نحوه تحلیل داده‌ها در فصل چهارم پایان‌نامه به درک مباحث، مفاهیم و مسائل مطرح‌شده در پایان‌نامه بسیار کمک می‌کند، به همین دلیل ارائه آمارهای دقیق و صحیح در آنالیز داده‌های پایان نامه مهم است.

 نگارش محتوای فصل چهارم پایان‌نامه به ترتیب شامل طرح اجمالی مسئله، ارائه آمارهای دقیق و تجزیه و تحلیل نتایج آن‌هاست.

بدین ترتیب، مانند همه فصول پایان‌نامه، فصل چهارم را نیز با نوشتن مقدمه‌ای کوتاه و شفاف آغاز می‌کنیم.

در مقدمه بهتر است موضوع و مسئله اصلی و اهداف پایان‌نامه را به طور بسیار مختصر مرور کنیم.

 پس از آن باید داده‌های آماری حاصل از روش‌های مختلف تحقیقات خود را بررسی کنیم و به ارزیابی دقیق تک‌تک آن‌ها بپردازیم.

 توصیف مشاهدات، متغیرها و آمارها، تحلیل نتایج به دست ‌آمده از پرسشنامه‌ها، آزمایش‌ها و مصاحبه‌ها و همچنین تشریح دستاوردهای مطالعات گسترده و گوناگون ما در حوزه پژوهش از عمده‌ترین مراحل این کار است که در نهایت، نتایج حاصل از آنالیز همه داده‌ها و اطلاعات منجر به پذیرش یا رد فرضیه‌های مطرح‌شده در تحقیقات پایان‌نامه و طرح پرسش‌ها و پاسخ‌های آن‌ها می‌شود.

 در واقع، فصل چهارم پایان‌نامه موجب اعتبار و ارزشمندی پژوهش می‌شود و در موفقیت دانشجو در پروژه تحقیقاتی‌اش نقشی اساسی دارد.

نکته قابل توجه این است که در فصل چهارم صرفا به بررسی و تحلیل کمی و کیفی کامل و شفاف داده‌ها پرداخته می‌شود و تفسیر آن‌ها در فصل بعد انجام خواهد شد.

نحوه تحلیل داده‌ها در فصل چهارم پایان‌نامه

همان‌طور که می‌دانید، پیش از تجزیه و تحلیل داده‌ها لازم است آن‌ها را با دقت ارزیابی کنیم تا از صحت‌شان مطمئن شویم. سپس نوبت به دسته‌بندی و مرتب کردن اطلاعات گردآوری ‌شده می‌رسد؛ باید داده‌هایی را که با یکدیگر همخوانی دارند و مربوط به یک موضوع مشترک می‌شوند، در یک دسته قرار داد و داده‌های تکراری، نامربوط و اضافه را حذف کرد؛ برای منسجم‌تر شدن اطلاعات می‌توان آن‌ها را کدگذاری کرد؛ همچنین می‌توان از انواع نمودارها برای نمایش بهتر آمارها استفاده کرد.

بر اساس اینکه نوع داده های جمع آوری شده کمی یا کیفی باشند جهت گیری تحلیل آن ها متفاوت خواهد بود.

پس به طور کلی سه روش  تحلیل داده ها را داریم:

الف : روش تحلیل داده های کمی

ب روش تحلیل داده های کیفی

ج- روش آمیخته

تجزیه و تحلیل آماری داده های کمی  با دو روش آمار توصیفی و آمار استنباطی انجام می‌شود؛ در روش آمار توصیفی معمولا از جداول توزیع فراوانی، درصد فراوانی و میانگین، ترسیم نمودار، محاسبه شاخص‌های مرکزی، شاخص‌های پراکندگی، شاخص‌های چولگی، شاخص‌های کشیدگی، محاسبه همبستگی و رگراسیون و پیش‌بینی و نرم‌افزارهایی دقیق، سریع و کاربردی  نظیر SPSS برای پردازش اطلاعات استفاده می‌شود.

 پژوهشگران در روش آمار استنباطی با تعمیم نتایج به دست‌ آمده از محاسبات اولیه آماری به جامعه آماری بزرگ‌تر به آنالیز داده‌ها می‌پردازند تا به نتیجه برسند.

در این روش استفاده از آزمون‌های پارامتریک و ناپارامتریک نیز مرسوم است؛ به آزمون‌هایی که در سطح مقیاس فاصله‌ای و نسبی به تجزیه و تحلیل داده‌ها می‌پردازند و شاخص آماری آن‌ها میانگین و واریانس است و به پیش‌فرض توزیع جامعه نرمال نیاز دارند، پارامتریک گفته می‌شود و آزمون‌هایی که در سطح مقیاس اسمی و رتبه‌ای آنالیز می‌کنند و شاخص آماری آن‌ها میانه و نماست و به هیچ فرضی درباره توزیع نیاز ندارند، ناپارامتریک نامیده می‌شوند.

از انواع نرم‌افزارهای معروف و خوب برای تجزیه و تحلیل آماری داده های کمی  در پایان‌نامه می‌توان نرم‌افزارهای زیر را نام برد:

نرم‌افزار SPSS، نرم‌افزار اکسل، نرم‌افزار Amos، نرم‌افزار Liserel، نرم‌افزار PLS، نرم‌افزار R، نرم‌افزار Eviews و… که همه این برنامه‌ها قابلیت ذخیره اطلاعات و کشف اختلافات مهم احتمالی بین گروه‌ها و ارتباط میان متغیرها و همچنین نمایش داده‌های گردآوری شده به شکل نمودار و جدول را دارند.

ب روش تحلیل داده های کیفی

در این روش معمولا به دسته بندی و مقوله بندی مطالب پرداخته می شود

و طی سه مرحله کدگذاری باز، محوری و گزینشی مقوله ها و مضمون های اصلی شناسایی می شوند.

از انواع نرم‌افزارهای معروف و خوب برای تجزیه و تحلیل آماری داده های کیفی  می‌توان نرم‌افزارهای زیر را نام برد:

مکس کیو دا  Maxqda : انویو Nvivo ، اطلس Atlas

ج- روش آمیخته: در روش آمیخته ابتدا با روش های کیفی به مقوله بندی مفاهیم پرداخته می شود سپس با نرم افزار های کمی که در بالا اشاره شد به اعتبار سنجی آن ها پرداخته می شود.

همان‌طور که اشاره شد، استفاده از نرم‌افزارهای آماری برای آنالیز اطلاعات در ارائه تصویری روشن و شفاف از دستاوردهای پژوهش کاملا ضروری است، اما برای بهره بردن از کمک این نرم‌افزارهای آماری لازم است پژوهشگر بر آن‌ها مسلط باشد.

 قطعا داشتن دانش کافی نسبت به پیچیدگی‌های این نوع نرم‌افزارها و مهارت در کار کردن با ابزارهای تخصصی‌شان به آنالیز سریع و صحیح داده‌ها منجر خواهد شد؛ بنابراین اگر دانشجویی تخصص و شناخت لازم از نرم‌افزاری را ندارد، بهتر است از متخصصان  آماری کمک بگیرد و این بخش را برون‌سپاری کند.

اما نکته بسیار مهم دیگر که باید به آن توجه کنید این است که کسی که کار آماری را برای شما انجام می دهد باید با انواع نرم افزار های کمی و کیفی آشنا باشد.

چون قطعا هر یک از این نرم افزار ها نقاط ضعف و قوت خاصی دارند و هر یک برای کار ویژه ای ساخته شده اند.

اگر آماریست فقط با یک نرم افزار آشنایی داشته باشد حوزه ی دید وی بسیار محدود خواهد بود و دچار نوعی جزم اندیشی (دُگماتیسم ) خواهد بود.

پس قبل از انتخاب آماریست یا شرکت آماری از آن ها سوال کنید که تحلیل داده ها را با چه نرم افزارهایی آنجام می دهند.

اگر توانستند با چندین نرم افزار آماری کار کنند می توانید مطمئن باشید که بعدا دچار مشکل نخواهید شد.

چون اگر فرضیه های شما با یک نرم افزار قابل آزمون نبود می توانند با نرم افزار دیگری آن را برای شما تحلیل کنند.

اگر از شرکت های آماری خدمات می گیرید هم تأکید کنید کسی که کار آماری شما را انجام می دهد با انواع نرم افزار های کمی و کیفی آشنا باشد. در غیر اینصورت این شرکت ها هر قسمت از کارتان را به یک فرد می دهند و در نهایت کارتان انسجام نخواهد داشت.

در هر صورت صلاح مملکت خویش را خسروان دانند، اما بازهم تأکید می کنیم در این زمینه دقت و وسواس خاصی داشته باشید.

تحلیل داده های آماری(فصل 4 پایان نامه)، مقاله و …

سفارش تحلیل داده های آماری برای پایان نامه و مقاله و …

تحلیل داده های آماری پایان نامه ، مقاله و …  با کم ترین هزینه و بالاترین کیفیت انجام می گیرید.

تحلیل داده های کمی  با نرم افزارهای SPSS- PLS – Amos و

تحلیل داده ای کیفی با نرم افزارهای کیفی Maxquda و انویو Nvivoانجام می گیرد.

قیمت تحلیل ها بسیار پایین و پایین تر از هر جای دیگر است

و بسته به نوع و میزان کار معمولا بین 400 هزار تا 1 میلیون تومان خواهد بود. توجه کنیداین قیمت در جاهای دیگر بین حداقل 2 تا 3 میلیون می باشد. ما در اینجا فقط برای رعایت حال دانشجویان و شرایط سخت اقتصادی این قیمت ها را در نظر گرفته ایم. در حالی که کار ما با بالاترین کیفیت و پشتیبانی عالی انجام می گیرد.

البته تحلیل هایی که کار کم تری دارند با قیمت کمتر انجام می گیرد 

جهت سفارش با یکی از روش های زیر تماس بگیرید: 

تماس با شماره موبایل 09143444846 یا ارسال اس ام اس یا پیام از طریق واتساپ و  تلگرام 

یا اینکه به ایمیل  abazizi1392@gmail.com پیام بفرستید. یا اینکه فرم زیر را تکمیل کنید تا با شما تماس بگیریم. 

  • تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.
  • نرم افزار های کمی: SPSS- PLS – Amos
  • نرم افزار کیفی: Maxquda – Nvivo
  • تعیین حجم نمونه با:Spss samplepower
  • لازم است به نکات ذیل توجه فرمائید:

1- گزارش تحلیل (فصل 4 پایان نامه ) در قالب فایل ورد (Word ) ارائه می شود.

2- خروجی نرم افزار و داده های تحلیل شده در اختیار تان قرار داده می شود.

3- در صورت پیشنهاد استاد راهنما  یا نظر خود محقق تحلیل بر اساس نظر آن ها انجام می گیرد.

4- در صورتی که تحلیل مورد تایید استاد راهنما ، مشاور و … قرار نگیرد ، بر اساس نظر آن ها اصلاح  و اصلاحیه در اختیار محقق قرار می گیرد.

5- سعی می شود تحلیل در اسرع وقت و حداقل زمان ممکن در اختیار محقق قرار بگیرد.

6- فعلاً تحلیل ها فقط با نرم افزارهای ذکر شده در بالا انجام خواهد شد.

  •   ازیکی روش های زیر با ما تماس بگیرید.
  • Mobile : 09143444846
  • Telegram: @abazizi
  • E-mail: abazizi1392@gmail.com
  • از طریق واتساپ به شماره   09143444846 پیام بفرستید. همچنین از طریق شبکه های اجتماعی به ویژه ایتا یا تلگرام یا واتساپ  پیام بفرستید. 

از کار ما مطمئن باشید .

آموزش پیشرفته sPSS

تحلیل عاملی اکتشافی در spss

تحلیل عاملی اکتشافی در SPSS یک روش آماری پیشرفته برای شناسایی ساختار درونی یک مجموعه داده‌ها و کاهش ابعاد آن است.

مراحل انجام تحلیل عاملی اکتشافی در SPSS:

  1. ابتدا باید متغیرهای موردنظر برای تحلیل را در SPSS وارد کرد.
  2. از منوی Analyzeگزینه Factor را انتخاب کنید.
  3. در کادر باز شده متغیرهای موردنظر را به صورت ستونی در قسمت Variables وارد کنید.
  4. روش استخراج عامل‌ها را مشخص کنید. معمولا از روش Principal Component Analysis استفاده می‌شود.
  5. معیارهای قطع عامل‌ها مانند مقدار ویژه بزرگتر از 1 واریانس تبیین شده و نمودار سنگریزه‌ای را مشخص کنید.
  6. چرخش عامل‌ها را انجام دهید. معمولا از چرخش Varimax استفاده می‌شود.
  7. جدول factor loading را مشاهده کنید. متغیرهایی که بار عاملی بالاتری دارند مهم‌تر هستند.
  8. پایایی عامل‌ها را با آلفای کرونباخ بررسی کنید.
  9. نتایج را تفسیر و گزارش کنید.

درنهایت با تحلیل عاملی می‌توان ساختار درونی داده‌ها و روابط بین متغیرها را شناسایی کرد.

برگرفته از : سرگرمی روز

آزمون فریدمن (Friedman Test)

آزمون فریدمن (Friedman Test) نوعی آزمون رتبه‌بندی غیرپارامتری است که برای مقایسه‌ی سه یا بیشتر گروه در یک متغیر کیفی مستقل با دو یا بیشتر گروه در یک متغیر وابسته به کار می‌رود.

 این آزمون از رتبه‌بندی داده‌ها برای تشخیص تفاوت معنادار بین گروه‌ها استفاده می‌کند

. آزمون فریدمن ابتدا داده‌ها را به صورت رتبه‌بندی می‌کند و سپس میزان تفاوت بین گروه‌ها را با استفاده از رتبه‌بندی‌ها محاسبه می‌کند.

 اگر تفاوت معناداری بین گروه‌ها وجود داشته باشد، آنگاه آزمون فریدمن نتیجه‌ی مثبت می‌دهد.

توضیحی در باره رتبه بندی و آزمون فریدمن:

و فقط رتبه یا ترتیب داده‌ها مهم است. برای مثال، در یک آزمایش بالینی که سه گروه بیمار داریم و برای هر بیمار امتیازی بر اساس شدت بیماری به آن‌ها داده شده است، می‌توان امتیازها را به رتبه‌هایی تبدیل کرد. در اینجا، اگر بیشترین امتیاز به بیماری شدت داشته باشد، به عنوان رتبه‌ی 1 انتخاب می‌شود و بیماری که کمترین امتیاز را داشته باشد، به عنوان رتبه‌ی 3 انتخاب می‌شود.

آزمون فریدمن برای تحلیل داده‌های رتبه‌بندی شده به کار می‌رود.

این آزمون با استفاده از رتبه‌بندی‌ها، تفاوت معنادار بین سه یا بیشتر گروه را بررسی می‌کند. این آزمون ابتدا مجموع رتبه‌ها را برای هر گروه محاسبه می‌کند و سپس میانگین مجموع رتبه‌ها را برای هر گروه محاسبه می‌کند.

سپس با استفاده از فرمول مناسب، میزان تفاوت معنادار بین گروه‌ها محاسبه می‌شود. اگر این میزان تفاوت معنادار باشد، نتیجه مثبت داده شده و بیانگر این است که تفاوت معناداری بین گروه‌ها وجود دارد.

در نهایت، برای تعیین گروهی که با دیگر گروه‌ها تفاوت معنادار دارد، می‌توان از روش‌هایی مانند تحلیل پست‌ها (Post-hoc analysis) مانند آزمون Dunn-Bonferroni استفاده کرد.

مراحل انجام آزمون فریدمن به شرح زیر است:

فرضیه‌ها: اولین قدم در انجام آزمون فریدمن تعیین فرضیه‌های لازم است. فرض صفر در این آزمون این است که میانگین رتبه‌ها برای تمامی گروه‌ها یکسان است. فرض دیگر در این آزمون فرض آلترناتیو است که بیانگر این است که حداقل یکی از میانگین رتبه‌ها با دیگری متفاوت است.

جمع‌آوری داده‌ها: برای انجام آزمون فریدمن، باید داده‌های مربوط به متغیرهایی که قصد بررسی آن‌ها را دارید، را جمع‌آوری کنید. برای هر گروه، باید رتبه‌بندی شده‌ای از داده‌ها را داشته باشید.

محاسبه آماره آزمون: پس از جمع‌آوری داده‌ها، باید آماره آزمون را محاسبه کنید. این آماره با استفاده از فرمول زیر محاسبه می‌شود:

$X^2 = \frac{12}{n (k + 1)} \sum_{j=1}^k R_j^2 – 3(n+1)$

در این فرمول، $n$ تعداد رکوردها در هر گروه و $k$ تعداد گروه‌هاست. $R_j$ نیز میانگین رتبه گروه $j$ است.

محاسبه مقدار p-value: با توجه به آماره آزمون محاسبه شده، باید مقدار p-value را محاسبه کنید. برای این کار، باید از جدول توزیع کای-مردانژ استفاده کنید.

تفسیر نتایج: پس از محاسبه مقدار p-value، باید آن را با سطح معناداری مشخص شده مقایسه کنید. اگر مقدار p-value کمتر از سطح معناداری باشد، فرض صفر رد می‌شود و می‌توان نتیجه گرفت که میانگین رتبه‌ها برای حداقل یکی از گروه‌ها با گروه دیگری متفاوت است.

محاسبه تفاوت رتبه‌ها (اختیاری): در صورتی که آزمون فریدمن نتایج مثبت داشته باشد، می‌توان از طریق آزمون تفاوت رتبه‌های ویلکاکسون، تعیین کرد که کدام گروه‌ها با یکدیگر متفاوت هستند. این آزمون برای مقایسه دو به دوی میانگین رتبه‌ها بین گروه‌ها استفاده می‌شود.

آزمون فریدمن و توزیع نرمال:

آزمون فریدمن یک آزمون غیرپارامتری است و برای داده‌هایی با توزیع نرمال یا هر توزیع پارامتری دیگری مناسب نیست. برای داده‌هایی که توزیع آن‌ها پارامتری است، از آزمون‌های دیگری مانند آزمون تی یا آنالیز واریانس (ANOVA) استفاده می‌شود.

آزمون فریدمن برای داده‌هایی که توزیع آن‌ها ناشناخته است و یا توزیع آن‌ها پارامتری نیست، مناسب است. به عنوان مثال، اگر داده‌ها رتبه‌بندی شده باشند یا توزیع آن‌ها نامتقارن باشد، آزمون فریدمن را می‌توان برای تحلیل آن‌ها به کار برد.

آزمون فریدمن در SPSS:

در نرم‌افزار SPSS نیز می‌توان از آزمون فریدمن برای تحلیل داده‌های رتبه‌بندی شده استفاده کرد. برای انجام این آزمون در SPSS، مراحل زیر را می‌توانید دنبال کنید:

وارد کردن داده‌ها: ابتدا داده‌های رتبه‌بندی شده خود را در SPSS وارد کنید.

انتخاب آزمون: از منوی “Analyze” گزینه “Nonparametric Tests” را انتخاب کرده و سپس گزینه “K Independent Samples” را انتخاب کنید.

تنظیمات آزمون: در پنجره‌ی باز شده، متغیر رتبه‌بندی شده را به عنوان متغیر وابسته و متغیر دسته‌ای را به عنوان متغیر مستقل انتخاب کنید. سپس آزمون فریدمن را انتخاب کنید.

تنظیمات دیگر آزمون: پنجره‌ی تنظیمات دیگر آزمون را باز کرده و مقدار آلفا و تنظیمات دیگر را مطابق با نیاز خود تنظیم کنید.

نتایج آزمون: پس از اجرای آزمون، نتایج آن در صفحه‌ی نتایج SPSS قابل مشاهده هستند. در بخش “Test Statistics”، مقدار آماری آزمون فریدمن، در بخش “Asymptotic Sig. (2-tailed)” مشخص می‌شود. اگر مقدار آماری کمتر از سطح معناداری قرار داده شده باشد، می‌توان نتیجه گرفت که تفاوت معناداری بین گروه‌ها وجود دارد.

برای مشاهده لیست همه ی  پرسشنامه های استاندارد لطفا همین جا روی پرسشنامه استاندارد  کلیک فرمایید.

تحلیل داده های آماری برای پایان نامه و مقاله نویسی ،تحلیل داده های آماری شما با نرم افزارهای کمی و کیفی ،مناسب ترین قیمت و کیفیت عالی انجام می گیرد.نرم افزار های کمی: SPSS- PLS – Amosنرم افزار کیفی: Maxqudaتعیین حجم نمونه با:Spss samplepower

روش های تماس:Mobile :  09143444846  واتساپ – تلگرامکانال تلگرام سایت: برای عضویت در کانال تلگرام سایت اینجا کلیک کنید(البته قبلش فیلتر شکن روشن شود!!) مطالب جالب علمی و آموزشی در این کانال درج می گردد.

کتاب آموزش تصویری نمونه گیری با SPSS Sample Power

 دانلود کتاب آموزش تصویری نمونه گیری با SPSS Sample Power (برای اولین بار در ایران)

 دانلود کتاب آموزش تصویری نمونه گیری با SPSS Sample Power (برای اولین بار در ایران)

کتاب-آموزش-تصویری-نمونه-گیری-با-SPSS-Sample-Power.jpg

مبحث حجم نمونه و نحوه محاسبه آن یکی از مباحث بسیار کلیدی در تحقیقات است .

معمولاً محققین در این خصوص سوالات بسیاری دارند.

اکثر پژوهشگران در تعیین حجم نمونه دچار اشکالی اساسی هستند.

چون معمولاً برای تعیین حجم نمونه از فرمول کوکران یا جدول کرجسی و مورگان استفاده می کنند.

با توجه به اینکه این فرمول ها بر اساس پارامتر نسبت طراحی شده اند در بسیاری از مورد کاربرد ندارند.

لذا محققان در دفاع از پایان نامه یا پذیرش مقاله در مجلات معتبر علمی دچار درد سر بزرگ می کند.

برای حل این مشکل باید از نرم افزار های تعیین حجم نمونه مانند IBM SPSS Sample power بهره گرفت.

کتاب تصویری نمونه گیری با SPSS Sample Power این نرم افزار را به صورتی ساده با ارائه مثال های کاربردی آموزش می دهد.

برای هر نمونه از فرضیه ها یک نمونه کاربردی آورده شده است.

بعد از مطالعه این کتاب افراد قادر خواهند بود به راحتی نمونه ی آماری خود را با این نرم افزار تعیین کنند.

بعد از پرداخت هزینه می توانید آن را مستقیما دانلود نمایید یا اینکه با یکی از روش های زیر با ما تماس بگیرید تا خدمتتان ارسال گردد.

توجه: فروش نسخه ی الکترونیکی این کتاب فقط در این سایت ارائه می شود و ارائه آن در هر سایت یا کانال دیگری ممنوع می باشد و پیگرد قانونی دارد.

دانلود رایگان صفحات اولیه (فهرست مطالب) و مشخصات کتاب

تحلیل داده های آماری

تحلیل داده های آماری (فصل 4 پایان نامه و مقاله) با کیفیت بالا، در اسرع وقت و قیمت چند سال قبل!!

هزینه تحلیل داده های آماری فصل 4 پایان نامه و مقاله با کیفیت بالا، در اسرع وقت و قیمت چند سال قبل!!

دیروز در یکی از گروه های پژوهشی که مخاطبان آن اکثراً محقق با مدرک تحصیلی دکتری و حداقل ارشد هستند چند نفر اعتراض داشتند به کار یکی از آماریست ها مبنی بر اینکه حدود 6 ماهه کار و هزینه را از ما گرفته ولی تا کنون گزارش را تحویل نداده است! از شواهد هم برمی آمد که هزینه میلیونی و چند میلیونی گرفته! این تیپ به اصطلاح  آماریست ها اکثراً تبلیغات زیادی دارند و در شبکه های اجتماعی خود را متخصص معرفی می کنند و … در حالیکه در اصل کار را خودشان انجام نمی دهند و به اصطلاح برون سپاری می کنند به همین خاطر نمی توانند بعدا پاسخگو باشند.!

بر این اساس واجب دانستم که کار خود را برای یکبار دیگر معرفی کنم.

از لحاظ زمانی: پروسه کار تحلیل ما اکثر در 1 الی 2 روز نهایتاً 4 روز طول می کشد (البته اگر طرح تحقیق اشکال نداشته باشد)

قبل از شروع تحلیل ،  فصل اول و سوم به صورت کاملاً رایگان و- البته  در صورت رضایت دانشجو-  بررسی و مشکلات احتمالی به وی گزارش می گردد تا اصلاح گردد.

هزینه انجام کار ما پایین و در حدود 700 هزار 1 میلیون تومان یعنی قیمت 2 – 3 سال قبل می باشد!

قبل از انجام کار از دانشجو و محقق هزینه ای دریافت نمی گردد، البته در صورت اتمام کار هزینه به صورت یکجا دریافت و بعد از آن گزارش تحلیل ، داده ها و خروجی نرم افزار در اختیار وی قرار می گیرد.

تحلیل با نرم افزار های مختلف انجام می گیرد تا رضایت دانشجو و استاد راهنما تأمین گردد.

در صورت درخواست دانشجو فیلم آموزشی نحوه ی دفاع و توضیحات ضروری تحلیل در اختیار وی قرار می گیرد.

سعی می شود ، اشکالی در تحلیل نباشد، اما در صورت  وجود هر گونه مشکل، در اسرع وقت اصلاح می گردد و تا لحظه دفاع با دانشجو خواهیم بود.

این را به خاطر داشته باشید که هزینه تحلیل در جاهای دیگر در حدود 2 تا 3 میلیون تومان می باشد.

تحلیل با نرم افزارهای زیر پذیرفته می شود:


نرم افزار های کمی: SPSS- PLS – Amos

نرم افزار کیفی: Maxquda

تعیین حجم نمونه با:Spss samplepower

روش های تماس:

موبایل: 09143444846 پیامک و تماس

یا پیام از طریق واتساپ–تلگرام(با واتساپ سریع تر جواب داده می شود) به شماره 09143444846

ایمیل

وبسایت: https://rava20.ir/