برآورد کردن ارزش عامل
کارکردن در مورد ارزش ها از این جهت که شاخص هایی برای مجموع (زیگما) ، در تعدادی از راه ها می تواند انجام داده شود . استفاده کردن از بیشترین احتمال (ML) خیلی رایج است ، مجذور کمترین وزن (ULS) مجذورهای کمترین کلیت و مجذورهای کمترین وزن ها (WLS) اینها مواردی هستند که برای زمان شروع انجام خواهند شد . هر کدام از این مدل ها (الگوریتم ها ) عملکرد متناسبی را تولید می کنند . هر کدام از معادله ها یک ارزش کلی هستند برای نشان دادن زگماهای مختلف از اشکال و اریانس .
نگه داشتن انجام کار و رویه برآورد کننده آن هیچ وقت نمی تواند ارزش عملکرد متناسب را کاهش دهد .
راه این کار و دلایل انتخاب یک مدل از مدل های بیشمار دیگر مافوق فرصت این فصل است (ببینید یولمان 1996 ، برنامه کتابهای راهنما). اما اینها یک واحدی از خطر پنهانی رایج در همه الگوریتم ها هستند . اولین خطر اینکهدانستن پیدا کردن (تمایل داشتن) به بیشترین موضع . در اینجا برنامه انجام شده یک ارزش برای تناسب عملکرد است که کوچک ساخته نمی شود t نمی تواند کوچک شود ) به وسیله ساخته شدن کمترین تعدیل به شاخص های برآورد کننده . هر چند شروع کردن تحقیق برای کمترین تناسب عملکرد ارزشمند تر است اما این باید واقعاً وجود داشته باشد ، یافتن تناسب بهتری مطابق با شاخص ها گفتن اینکه این یک اتفاق آسان نیست طبقه دعاهای این فکر طولانی (1903) ممکن نیست که یک مشکل رایج تمرینی باشد .
نوع دوم مشکل پارامترهای برآورد کننده مربوط به پارامترهای احمقانه است . برخی اوقات ، خوب یک اندازه بودن می تواند به دست آمده باشد اما ارزش های یک پارامتر مسی را تولید نکنید . برای نمونه بدست آوردن متغیر های منفی یا رتبه ها یا ارتباط های ارزشی کاملی بیشتر از 1 امکان پذیر است و هر فکری مثل این ترکیبات در مورد آنها بی معنی است . اگر این اتفاقات برای شما مدل خاصی باشد به همین سادگی امکان دارد غلط باشد و یا ممکن است برخی متغیرهای شما فرضیات را تائید نکند و این مهم است زمانی که از یافتن الگوریتم های برآورد کننده استفاده می شود) . این همچنین می تواند زمانی اتفاق افتد که حجم نمونه خیلی کوچک است و یا مجانب باشد (در نمونه بزرگ ). فرضیاتی که شکل می دهند الگوریتم های برآورد کننده را ممکن است توجیح کننده نباشند .
علت اصلی دیگر از برآورد کننده های احمقانه داده های اشتباه هستند . محققان مرجعی برای ارتباط استفاده شده (یاکوداریانس) قرار می دهند که قالبهایی کلی (تعمیم شده ) هستند با جفت کردن دو وجه حذف شده از ارزش های علمی ، این اشتباه بیشترین علت نوشته شده برای هر ارتباطی است . به هر حال معنای اینکه قسمتهای مختلف قالب s کلی هستند به وسیله نمونه هایی از حجم های مختلف یک قالب مهمی که ممکن است باطناً سازگار نباشد با خودش برخی اوقات این مشکل آشکار خواهد شد ، زمانی نیز این چنین نخواهد شد . به ندرت ، ترجمه ها ، از بسته های نرم افزاری بهترند برای آشکار کردن این اشتباغه و هشدار دادن به کاربر .
27. 3.3 : اصلاح متون (MIS) و تحقیقات ویژه
اگر شما مدلی را پیدا کنید که مناسب نباشد چگونه می توان آن را تغییر داد ؟ کوشش کردن برای تغییر یک مدل یا بدست آوردن یک مدل مناسب بهتر یک تحقیق ویژه نامیده می شود . یک راه برای انجام آن نگاه کردن (توجه کردن ) به متون اصلاح شده (MIS) است . (برخی اوقات آزمون های چند وجهی لاگرلانگ نامیده می شود ).
این متون به شما می گویند آنچه را که باید انتظار داشته باشید تا اتفاق افتد . ارزش X2 از متن مناسبی خوب است اگر که شما آزاد به برآورده کردن یک مسیر اجباری قبلی بودید .
رها کردن یک مسیر اجباری ( نه تخمین زدن) برآورد یک درجه آزادی را کمتر می کند (MI) قبل تراز یک آزمون کردن از فرضیاتی که پارامتر آزاد شده ای باشند و این برای ارزش های ثابت شده گذشته ناکافی است که آیا اگر این مهم باشد مدل می تواند مناسبت بهتری داشته باشد از مدل قبلی پارامترهای آزاد (مجاز) و این احتمالاً برای ارزش های ثابت شده گذشته ناکافی باشد .
جایز شمردن پارامترها نباید باعث کاهش تصادفی آنها شود اما باید به صورت نظری قابل پذیرش باشد . اغلب پیشنهادات (MIS) بالاست که این اساساً اشتباه است . رها شدگی در هر یک از پارامترهای قدیمی زیاد نیست چون آن (MI) بزرگی است که می تواند نتیجه ، یک اندازه بودن بهتری باشد اما اساساً مدل بی معنایی است . مدل اصلی شما ممکن است مناسب داده ها نباشد اما به طور کلی شما نباید اجازه دهید که داده ها شکلی از مدل را به شما تلقین کنند .
در برخی مواقع احساس های به نوعی مخالف از مشکلات اتفاق می افتد زمانی که شما مشکل خاصی دارید که در مدل شما یک پارامتر باید برآورد کننده باشد . اما در حقیقت پارامتر کمتر از صفر هست که این مدل باید خاصیت بهتری با پارامتر ثابت شده روی صفر داشته باشد . این می تواند مدلی بسیار ساده تر ، کلی تر و قابل دسترسی تر و شاخصی کمتر تثبیت شده بسازد از صفر که نظریه ای نامناسب می تواند باشد .
یکی از بیشترین دیدگاه های مستقیم نوین برای پیدا کردن پارامترهایی که احتمالاً بهترین وضعیت هستند، برای اینکه صفر باشد از پارامترهای تخمین زده شده با خطاهای استاندارد شده آنها با مقایسه کردن ارزش ها صورت می گیرد . (آماده کردنه به وسیله نرم افزار ). این مقادیر با یک آزمون t برای آزمودن فرضیاتی که برآورد کننده پارامتر متفاوت از صفر باشد احساس خوب و احترامی برای تناسب کردن مدلی که پارامتر با صفر باشد را می سازد . بنابر این افزایش دادن تعدادی از پارامتر ها که برآورد کننده باشند و ساده سازی کردن مدل برای اکثر اوقات انجام می گیرد . اگر شما به خاطر داشته باشید تعمیم دادن ساده در SEM بهتر است .
در دو فاکتورهای ما ، در مدل CFA ، همه پارامترهای برآورد کننده هستند . نظریه های قابل پاسخ (خاطر – نشان می کنیم که فاکتور نوتیک نگرش های منفی در مورد تکنولوژی جدید است ) و داشتن ارزش های رتبه ای مهمتر از صفر . اصلاح متون پیشنهادی که X2 برازنده می تواند بهبود یابد به وسیله 48/4 (درP<0) اگر ما تخصیص دهیم خطاهایی از سوال 8 و سوال 10 که به هم مربوط باشند . به هر حال دانشی که در اینجا است توجیه نظری برای انجام آن ندارد ( در مورد سوالاتی که هر کدام باید پیشنهاد کنند که چرا خطاها باید همبستگی داشته باشند چیزی نیست و هیچ راهی برای برازندن مدل کافی نیست و همچنین این اصلاح ساخته شدنی نیست .
اگر شما توقع دارید از یک مدل استفاده شده برای داده های نمونه ، اگر بخواهیم دقیق شویم شما نباید این روش را آزمون کنند روی نمونه هایی با داده های همخوان : به دست آوردن یک داده جدید مناسب و سپس مدل تجدید نظر شده را روی آنها آزمون کنیم . این یک دیدگاه قرار دادی است اما شما خواهید دید مدل تجدید نظر شده پیش آزمانیده را بر روی تعدادی از داده های نمونه . فرض این است که آیا اینکه آثار تجدید نظر نظریه های مرتبط ، و سازگار یا فقط یک تمرین پایان دادنی که سرمایه هایی در بخش ارتباطات در نمونه شما انعکاسی همیشه مطلوب است .
27. 4: مدل های ساختاری
در روانشناسی ، ما اغلب علاقمند هستیم که پیش بینی کنیم نتایج را از برخی انواع روندها . در سختی نامفهوم قدیمی از روانشناسی تجربی ، ما می خواهیم بدانیم کدام یک از متغیر های مستقل علت است .
یا پیش بینی موفقیت برای متغیر وابسته ما است در دوره های SEM (آن می تواند با برخی اصطلاحات بماند به طور خیلی ساده ) متغیر های مستقل . متغیر های برون زاد و متغیر های وابسته متغیر های درون زاد نامیده می شوند .
پیشرفت واقعی از مدل سازی معادله ساختاری آن است که ما بتوانیم روشی با تعدادی وابسته یا درون زا را تغییر دهیم تا برخی زمانها . درجه دیگری از پیشرفت و یکی از آنها که ما قبلاً معامله می کردیم با آن هست که ما می توانیم بپرسیم درباره ارتباط بین فاکتورهای بعدی غیر مشاهده که ما به آن به صورت طبیعی علاقه مندیم .
دقت کردن به ارتباط بین متغیر های برون زاد و درون زاد مفهوماً مشابه انجام بازگشت دو وجهی و زمانی که هست یک متغیر درون زاد به تنهایی ) و راه تحلیل کردن آنهاست (زمانی که متغیر های درون زاد خیلی زیاد هستند ).
زمانی که رگرسیون سنتی با تحلیل مسیری است ما تحلویحاً فرض می کنیم که متغیر های مشاهده شده کاملاً پایا هستند و محتوای آنها غلط نیستند . اگر ما اندازه گیری کنیم وزن یا سن را این مقدار می تواند هنوز خطای محتوایی باشد اما احتمالاً برای روانشناسی که در مورد آن نگران باشد کافی نیست . ما می توانیم اندازه هایی را بر رفتار های مشاهده شده متغیرها منتقل کنیم ، به عنوان نماینده های کامل از وزن و سن و انتقال آن به قبل . اغلب اندازه های متغیر های روانشناسی ما متون ناقصی از مفاهیم پنهان دارند که در این اصل ما هرگز نمی توانیم این اندازه ها را به طور کامل محاسبه کنیم .
ما پیشنهاد می کنیم بخشی از SEM برای تلاش تا بدست آوردن این خطا در سنجش ، داخل حساب زمانی که برآورد کننده های ما پارامتر های مدل هستند .
این برای یک تعدادی از دلایل مهم است . خطاهای اندازه گیری معمولاً به کار می روند برای سوگیری براورد کردن پارامترها و این قرار ها انجام می شوند به طور مستقیم از برآورد نقصانی اثر ها از یک متغیر روی دیگری (البته همیشه اینگونه نیست ) . اگر ما بخواهیم بدانیم که چگونه یک ارتباط قوی بین دو مفهوم وجود دارد . آنها می توانند مطلوب باشد تا اندازه ای از این ارتباط را برآورد کننده و سپس خطاهایی که برای آن داشته است را کنترل کنند . دلیل دوم برای خواستار بودن خطاهای برآورد کننده این است که جور بودن از مدل ما برای داده ها معمولاً بداست . در این قسمت به دلیل خطاهای اندازه گیری کنترل کردن دوباره برای خطاها باید مشخص شود با کمترین سوگیری بدست آمده از مناسب بودن مدل های ما .