ผลต่างระหว่างรุ่นของ "Found ds 3.1"

จาก Theory Wiki
ไปยังการนำทาง ไปยังการค้นหา
แถว 8: แถว 8:
 
** ขอเรียกค่านี้ว่า <math>L</math>
 
** ขอเรียกค่านี้ว่า <math>L</math>
 
* เราอยากจะหา <math>m</math> และ <math>b</math> ที่ minimize ค่านี้ เราจะใช้วิธีจากแคลคูลัส คือเราจะหาค่าของตัวแปรทั้งสองที่ทำให้ <math>\frac{\partial}{\partial m}L=0</math> และ <math>\frac{\partial}{\partial b}L=0</math>
 
* เราอยากจะหา <math>m</math> และ <math>b</math> ที่ minimize ค่านี้ เราจะใช้วิธีจากแคลคูลัส คือเราจะหาค่าของตัวแปรทั้งสองที่ทำให้ <math>\frac{\partial}{\partial m}L=0</math> และ <math>\frac{\partial}{\partial b}L=0</math>
** แก้สมการจากฝั่ง <math>b</math> อาจจะสะดวกกว่า
+
** หมายเหตุ 1: ต้องหา partial derivative ของ L เทียบกับ m และ b
 +
** หมายเหตุ 2: แก้สมการจากฝั่ง <math>b</math> อาจจะสะดวกกว่า
  
 
''หมายเหตุ:'' เพื่อความสะดวกในการคำนวณอาจจะใช้ <math>\bar{x}=(\sum_i x_i)/n</math> และ <math>\bar{y}=(\sum_i y_i)/n</math> ประกอบได้ สมการที่ได้จะมีรูปที่จัดง่ายขึ้น
 
''หมายเหตุ:'' เพื่อความสะดวกในการคำนวณอาจจะใช้ <math>\bar{x}=(\sum_i x_i)/n</math> และ <math>\bar{y}=(\sum_i y_i)/n</math> ประกอบได้ สมการที่ได้จะมีรูปที่จัดง่ายขึ้น

รุ่นแก้ไขเมื่อ 02:28, 25 กันยายน 2564

Hint: 3.1 Least squares vertical error

ในข้อนี้จะให้ derive สูตรของการคำนวณที่นิยมเรียกว่า linear least squares หรือ linear least squares regression

  • จากโจทย์ เราจะให้เส้นประมาณของเราคือ เราจะหา และ ที่ "ดีที่สุด"
  • ให้เริ่มโดยเขียนค่า error ที่เราต้องการจะ minimize ก่อน
    • ในโจทย์ให้ใช้ mean square error แต่การคิดผลรวมก็ให้ผลไม่ต่างจากค่าเฉลี่ย ดังนั้นให้เขียนเทอมนี้ออกมาก่อน (ป.ล. square error ที่จุด เดียวคือ )
    • ขอเรียกค่านี้ว่า
  • เราอยากจะหา และ ที่ minimize ค่านี้ เราจะใช้วิธีจากแคลคูลัส คือเราจะหาค่าของตัวแปรทั้งสองที่ทำให้ และ
    • หมายเหตุ 1: ต้องหา partial derivative ของ L เทียบกับ m และ b
    • หมายเหตุ 2: แก้สมการจากฝั่ง อาจจะสะดวกกว่า

หมายเหตุ: เพื่อความสะดวกในการคำนวณอาจจะใช้ และ ประกอบได้ สมการที่ได้จะมีรูปที่จัดง่ายขึ้น