เกณฑ์ใหม่สำหรับการคัดเลือกตัวแบบการถดถอย : กรณีตัวอย่างขนาดเล็ก
คำสำคัญ:
เกณฑ์การคัดเลือกตัวแบบ, ตัวแบบการถดถอย, ความน่าจะเป็นที่จะมีจำนวนตัวแปรมากหรือน้อยเกินไป, ประสิทธิภาพสังเกต L2บทคัดย่อ
การศึกษาครั้งนี้มีวัตถุประสงค์เพื่อสร้างเกณฑ์ใหม่สำหรับการคัดเลือกตัวแบบการถดถอย กรณีตัวอย่างขนาดเล็ก โดยเรียกชื่อเกณฑ์ใหม่นี้ว่า New Information Criterion (NIC) ดำเนินการตรวจสอบประสิทธิภาพของเกณฑ์ NIC เปรียบเทียบกับเกณฑ์การคัดเลือกตัวแบบการถดถอยอื่น 3 เกณฑ์ ได้แก่ เกณฑ์ KICcC, KICcSB และ KICcHM ภายใต้สถานการณ์ต่างๆ ได้แก่ ความแตกต่างของขนาดตัวอย่าง จำนวนตัวแปรอิสระในสมการ สัมประสิทธิ์การถดถอย ความแปรปรวนของความคลาดเคลื่อน และการแจกแจงของตัวแปรอิสระ จากผลการศึกษา พบว่า เกณฑ์ NIC ที่สร้างขึ้นมีสูตรดังนี้
NIC = log(s2) +log() +
จากผลการเปรียบเทียบประสิทธิภาพ พบว่า ประสิทธิภาพของเกณฑ์ KICcHM ดีที่สุด อย่างไรก็ตาม เกณฑ์นี้สามารถคัดเลือกตัวแบบได้ถูกต้องน้อย ดังนั้น งานวิจัยนี้จึงใช้เกณฑ์ประสิทธิภาพสังเกต เป็นเกณฑ์การคัดเลือกตัวแบบอีกเกณฑ์หนึ่ง ซึ่งเกณฑ์นี้แนะนำว่าเกณฑ์ NIC คือเกณฑ์ที่ดีที่สุด
References
Akaike, H., 1974, “A New Look at the Statistical Model Identification,” IEEE Transactions on Automatic Control, 19 (6), pp. 716-723.
Hurvich, C.M. and Tsai, C.L., 1989, “Regression and Time Series Model Selection in Small Samples,” Biometrika, 76 (2), pp. 297-307.
McQuarrie, A.D.R., Shumway, R.H. and Tsai, C.L., 1997, “The Model Selection Criterion AICu,” Statistics and Probability Letters, 34 (3), pp. 285-292.
Cavanaugh, J.E., 1999, “A Large-Sample Model Selection Criterion Based on Kullback’s Symmetric Divergence,” Statistics and Probability Letters, 42 (4), pp. 333-343.
Cavanaugh, J.E., 2004, “Criteria for Linear Model Selection Based on Kullback’s Symmetric Divergence,” Australian and New Zealand Journal of Statistics, 46 (2), pp. 257-274.
Seghouane, A.K. and Bekara, M., 2004, “A Small Sample Model Selection Criterion Based on Kullback’s Symmetric Divergence,” IEEE Transactions on Signal Processing, 52 (12), pp. 3314-3323.
Hafidi, B. and Mkhadri, A., 2006, “A Corrected Akaike Criterion Based on Kullback’s Symmetric Divergence: Applications in Time Series, Multiple and Multivariate Regression,” Computational Statistics and Data Analysis, 50 (6), pp. 1524-1550.
Montgomery, D.C., Peck, E.A. and Vining, G.G., 2006, Introduction to Linear Regression Analysis, 5th ed., Wiley, New York. p. 67.
Keerativibool, W., 2014, “Unifying the Derivations of Kullback Information Criterion and Corrected Versions,” Thailand Statistician, 12 (1), pp. 37-53.
Keerativibool, W. and Siripanich, P., 2017, “Comparison of the Model Selection Criteria for Multiple Regression Based on Kullback-Leibler’s Information,” Chiang Mai Journal of Science, 44 (2), pp. 699-714.
Al-Subaihi, Ali A., 2007, Variable Selection in Multivariable Regression Using SAS/IML. [Online], Available: https://www.jstatsoft.org/article/view/v007i12/mv.pdf. [28 May 2016]
Whittaker, T.A. and Furlow, C.F., 2009, “The Comparison of Model Selection Criteria When Selecting Among Competing Hierarchical Linear Models,” Journal of Modern Applied Statistical Methods, 8 (1), pp. 172-193.
Acquah, H.G., 2010, “Comparison of Akaike Information Criterion (AIC) and Bayesian Information Criterion (BIC) in Selection of an Asymmetric Price Relationship,” Journal of Development and Agricultural Economics, 2 (1), pp. 1-6.
Sangthong, M., 2019, “A Study of the Effectiveness of Model Selection Criteria for Multilevel Analysis,” Burapha Science Journal, 24 (1), pp. 156-169. (In Thai)
Downloads
เผยแพร่แล้ว
How to Cite
ฉบับ
บท
License
Copyright (c) 2022 มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
เนื้อหาของบทความที่ตีพิมพ์ในวารสาร Science and Engineering Connect ในทุกรูปแบบ รวมถึงข้อความ สมการ สูตร ตาราง ภาพ ตลอดจนภาพประกอบในรูปแบบอื่นใด เป็นลิขสิทธิ์ของมหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี การนำเนื้อหา ไม่ว่าจะในรูปแบบใด ของบทความไปใช้ประโยชน์ในเชิงพาณิชย์ ต้องได้รับอนุญาตจากบรรณาธิการวารสารอย่างเป็นลายลักษณ์อักษรก่อนเท่านั้น