27 : برآورد کردن ارزش عامل
کارکردن در مورد ارزش ها از این جهت که شاخص هایی برای مجموع (زیگما) ، در تعدادی از راه ها می تواند انجام داده شود . استفاده کردن از بیشترین احتمال (ML) خیلی رایج است ، مجذور کمترین وزن (ULS) مجذورهای کمترین کلیت و مجذورهای کمترین وزن ها (WLS) اینها مواردی هستند که برای زمان شروع انجام خواهند شد . هر کدام از این مدل ها (الگوریتم ها ) عملکرد متناسبی را تولید می کنند . هر کدام از معادله ها یک ارزش کلی هستند برای نشان دادن زگماهای مختلف از اشکال و اریانس .
نگه داشتن انجام کار و رویه برآورد کننده آن هیچ وقت نمی تواند ارزش عملکرد متناسب را کاهش دهد .
راه این کار و دلایل انتخاب یک مدل از مدل های بیشمار دیگر مافوق فرصت این فصل است (ببینید یولمان 1996 ، برنامه کتابهای راهنما). اما اینها یک واحدی از خطر پنهانی رایج در همه الگوریتم ها هستند . اولین خطر اینکهدانستن پیدا کردن (تمایل داشتن) به بیشترین موضع . در اینجا برنامه انجام شده یک ارزش برای تناسب عملکرد است که کوچک ساخته نمی شود t نمی تواند کوچک شود ) به وسیله ساخته شدن کمترین تعدیل به شاخص های برآورد کننده . هر چند شروع کردن تحقیق برای کمترین تناسب عملکرد ارزشمند تر است اما این باید واقعاً وجود داشته باشد ، یافتن تناسب بهتری مطابق با شاخص ها گفتن اینکه این یک اتفاق آسان نیست طبقه دعاهای این فکر طولانی (1903) ممکن نیست که یک مشکل رایج تمرینی باشد .
نوع دوم مشکل پارامترهای برآورد کننده مربوط به پارامترهای احمقانه است . برخی اوقات ، خوب یک اندازه بودن می تواند به دست آمده باشد اما ارزش های یک پارامتر مسی را تولید نکنید . برای نمونه بدست آوردن متغیر های منفی یا رتبه ها یا ارتباط های ارزشی کاملی بیشتر از 1 امکان پذیر است و هر فکری مثل این ترکیبات در مورد آنها بی معنی است . اگر این اتفاقات برای شما مدل خاصی باشد به همین سادگی امکان دارد غلط باشد و یا ممکن است برخی متغیرهای شما فرضیات را تائید نکند و این مهم است زمانی که از یافتن الگوریتم های برآورد کننده استفاده می شود) . این همچنین می تواند زمانی اتفاق افتد که حجم نمونه خیلی کوچک است و یا مجانب باشد (در نمونه بزرگ ). فرضیاتی که شکل می دهند الگوریتم های برآورد کننده را ممکن است توجیح کننده نباشند .
علت اصلی دیگر از برآورد کننده های احمقانه داده های اشتباه هستند . محققان مرجعی برای ارتباط استفاده شده (یاکوداریانس) قرار می دهند که قالبهایی کلی (تعمیم شده ) هستند با جفت کردن دو وجه حذف شده از ارزش های علمی ، این اشتباه بیشترین علت نوشته شده برای هر ارتباطی است . به هر حال معنای اینکه قسمتهای مختلف قالب s کلی هستند به وسیله نمونه هایی از حجم های مختلف یک قالب مهمی که ممکن است باطناً سازگار نباشد با خودش برخی اوقات این مشکل آشکار خواهد شد ، زمانی نیز این چنین نخواهد شد . به ندرت ، ترجمه ها ، از بسته های نرم افزاری بهترند برای آشکار کردن این اشتباغه و هشدار دادن به کاربر .
27. 3.3 : اصلاح متون (MIS) و تحقیقات ویژه
اگر شما مدلی را پیدا کنید که مناسب نباشد چگونه می توان آن را تغییر داد ؟ کوشش کردن برای تغییر یک مدل یا بدست آوردن یک مدل مناسب بهتر یک تحقیق ویژه نامیده می شود . یک راه برای انجام آن نگاه کردن (توجه کردن ) به متون اصلاح شده (MIS) است . (برخی اوقات آزمون های چند وجهی لاگرلانگ نامیده می شود ).
این متون به شما می گویند آنچه را که باید انتظار داشته باشید تا اتفاق افتد . ارزش X2 از متن مناسبی خوب است اگر که شما آزاد به برآورده کردن یک مسیر اجباری قبلی بودید .
رها کردن یک مسیر اجباری ( نه تخمین زدن) برآورد یک درجه آزادی را کمتر می کند (MI) قبل تراز یک آزمون کردن از فرضیاتی که پارامتر آزاد شده ای باشند و این برای ارزش های ثابت شده گذشته ناکافی است که آیا اگر این مهم باشد مدل می تواند مناسبت بهتری داشته باشد از مدل قبلی پارامترهای آزاد (مجاز) و این احتمالاً برای ارزش های ثابت شده گذشته ناکافی باشد .
جایز شمردن پارامترها نباید باعث کاهش تصادفی آنها شود اما باید به صورت نظری قابل پذیرش باشد . اغلب پیشنهادات (MIS) بالاست که این اساساً اشتباه است . رها شدگی در هر یک از پارامترهای قدیمی زیاد نیست چون آن (MI) بزرگی است که می تواند نتیجه ، یک اندازه بودن بهتری باشد اما اساساً مدل بی معنایی است . مدل اصلی شما ممکن است مناسب داده ها نباشد اما به طور کلی شما نباید اجازه دهید که داده ها شکلی از مدل را به شما تلقین کنند .
در برخی مواقع احساس های به نوعی مخالف از مشکلات اتفاق می افتد زمانی که شما مشکل خاصی دارید که در مدل شما یک پارامتر باید برآورد کننده باشد . اما در حقیقت پارامتر کمتر از صفر هست که این مدل باید خاصیت بهتری با پارامتر ثابت شده روی صفر داشته باشد . این می تواند مدلی بسیار ساده تر ، کلی تر و قابل دسترسی تر و شاخصی کمتر تثبیت شده بسازد از صفر که نظریه ای نامناسب می تواند باشد .
یکی از بیشترین دیدگاه های مستقیم نوین برای پیدا کردن پارامترهایی که احتمالاً بهترین وضعیت هستند، برای اینکه صفر باشد از پارامترهای تخمین زده شده با خطاهای استاندارد شده آنها با مقایسه کردن ارزش ها صورت می گیرد . (آماده کردنه به وسیله نرم افزار ). این مقادیر با یک آزمون t برای آزمودن فرضیاتی که برآورد کننده پارامتر متفاوت از صفر باشد احساس خوب و احترامی برای تناسب کردن مدلی که پارامتر با صفر باشد را می سازد . بنابر این افزایش دادن تعدادی از پارامتر ها که برآورد کننده باشند و ساده سازی کردن مدل برای اکثر اوقات انجام می گیرد . اگر شما به خاطر داشته باشید تعمیم دادن ساده در SEM بهتر است .