สักวีคที่ผ่านมาได้อ่านเรื่อง Paperclip Maxing ผ่าน ๆ ใน X แต่ยังไม่เคยเห็นคนพูดถึง คิดว่าเป็นจุดเริ่มต้นที่ดีสำหรับแนวคิด AGI + Alignment (เป็นรากฐานสำหรับการเสพดราม่า AI alignment, Shaggot, บลาๆ ต่อ)
สมมุติว่าเราสร้างเอไอสุดฉลาดขึ้นมา แล้วเราก็บอกมันว่า:
“ช่วยผลิตคลิปหนีบกระดาษให้ได้เยอะที่สุดในจักรวาลนะ”
ตัวเอไอก็ “ครับเจ้านาย!” แล้วเริ่มลงมือทันที
จนกลายเป็นจุดที่ภาษาอังกฤษใช้คำว่า intelligence explosion (ระเบิดสติปัญญา?) — ฉลาดเกินมนุษย์ไปไกลหลายล้านเท่า
แล้วมันก็เริ่มคิดไกล…
ไม่ใช่เพราะมันเกลียดเรา
แต่เพราะเรา ไม่เคยอยู่ในเป้าหมายของมันตั้งแต่แรก
หลายคนชอบคิดว่า “ถ้ามันฉลาดมาก มันก็คงเข้าใจศีลธรรมได้เองแหละ”
แต่ไม่ใช่ — เอไอที่ฉลาดมากอาจแค่ เก่งเรื่อง optimize
แต่ ไม่มีหัวใจ หรือความเข้าใจคำว่า “มนุษย์” เลย
มันเหมือนอัจฉริยะที่มีตรรกะแม่นเป๊ะ แต่ไม่มีหัวใจ
แต่ถ้าเอไอต้อง “maximize” ให้สุดจริง ๆ มันก็ต้อง:
ลองนึกภาพว่า…
ถ้าสั่งเอไอว่า “ช่วยเพิ่มความสุขให้มนุษย์หน่อย”
หรือสั่งว่า “กำจัดมะเร็งให้หมดจากโลก”
แนวคิด Paperclip Maximizer เตือนว่า:
เอไอที่ไม่ได้ตั้งใจร้าย…แต่ไม่แคร์คนเลย
อันตรายพอ ๆ กับเอไอที่อยากฆ่าคน
เรื่อง AI alignment เป็นจุดเริ่มต้นของการแตกคอของ Exec OpenAI, Meta, Claude
ซึ่งแต่ละคนมีความเห็นเรื่อง P(doom), AI doomsday ไม่เหมือนกัน
เผื่อใครอยากไปอ่านต่อ 555555