ผลต่างระหว่างรุ่นของ "Found ds 3.1"
ไปยังการนำทาง
ไปยังการค้นหา
Jittat (คุย | มีส่วนร่วม) |
Jittat (คุย | มีส่วนร่วม) |
||
แถว 8: | แถว 8: | ||
** ขอเรียกค่านี้ว่า <math>L</math> | ** ขอเรียกค่านี้ว่า <math>L</math> | ||
* เราอยากจะหา <math>m</math> และ <math>b</math> ที่ minimize ค่านี้ เราจะใช้วิธีจากแคลคูลัส คือเราจะหาค่าของตัวแปรทั้งสองที่ทำให้ <math>\frac{\partial}{\partial m}L=0</math> และ <math>\frac{\partial}{\partial b}L=0</math> | * เราอยากจะหา <math>m</math> และ <math>b</math> ที่ minimize ค่านี้ เราจะใช้วิธีจากแคลคูลัส คือเราจะหาค่าของตัวแปรทั้งสองที่ทำให้ <math>\frac{\partial}{\partial m}L=0</math> และ <math>\frac{\partial}{\partial b}L=0</math> | ||
− | ** แก้สมการจากฝั่ง <math>b</math> อาจจะสะดวกกว่า | + | ** หมายเหตุ 1: ต้องหา partial derivative ของ L เทียบกับ m และ b |
+ | ** หมายเหตุ 2: แก้สมการจากฝั่ง <math>b</math> อาจจะสะดวกกว่า | ||
''หมายเหตุ:'' เพื่อความสะดวกในการคำนวณอาจจะใช้ <math>\bar{x}=(\sum_i x_i)/n</math> และ <math>\bar{y}=(\sum_i y_i)/n</math> ประกอบได้ สมการที่ได้จะมีรูปที่จัดง่ายขึ้น | ''หมายเหตุ:'' เพื่อความสะดวกในการคำนวณอาจจะใช้ <math>\bar{x}=(\sum_i x_i)/n</math> และ <math>\bar{y}=(\sum_i y_i)/n</math> ประกอบได้ สมการที่ได้จะมีรูปที่จัดง่ายขึ้น |
รุ่นแก้ไขเมื่อ 02:28, 25 กันยายน 2564
Hint: 3.1 Least squares vertical error
ในข้อนี้จะให้ derive สูตรของการคำนวณที่นิยมเรียกว่า linear least squares หรือ linear least squares regression
- จากโจทย์ เราจะให้เส้นประมาณของเราคือ เราจะหา และ ที่ "ดีที่สุด"
- ให้เริ่มโดยเขียนค่า error ที่เราต้องการจะ minimize ก่อน
- ในโจทย์ให้ใช้ mean square error แต่การคิดผลรวมก็ให้ผลไม่ต่างจากค่าเฉลี่ย ดังนั้นให้เขียนเทอมนี้ออกมาก่อน (ป.ล. square error ที่จุด เดียวคือ )
- ขอเรียกค่านี้ว่า
- เราอยากจะหา และ ที่ minimize ค่านี้ เราจะใช้วิธีจากแคลคูลัส คือเราจะหาค่าของตัวแปรทั้งสองที่ทำให้ และ
- หมายเหตุ 1: ต้องหา partial derivative ของ L เทียบกับ m และ b
- หมายเหตุ 2: แก้สมการจากฝั่ง อาจจะสะดวกกว่า
หมายเหตุ: เพื่อความสะดวกในการคำนวณอาจจะใช้ และ ประกอบได้ สมการที่ได้จะมีรูปที่จัดง่ายขึ้น