OpenAI องค์กรไม่แสวงผลกำไรด้านปัญญาประดิษฐ์ ตัดสินใจไม่เผยแพร่โมเดลแสดงผลของ GPT-2 ปัญญาประดิษฐ์ซึ่งสามารถทำความเข้าใจภาษา และสร้างชุดคำขึ้นใหม่ที่คล้ายกับมนุษย์เขียนขึ้น เพราะเกรงว่าอาจถูกผู้ไม่หวังดี นำไปใช้ในการสร้างข่าวปลอมที่มีความสมจริงในโลกออนไลน์

องค์กรดังกล่าว ก่อตั้งขึ้นโดย อีลอน มัสก์ แห่ง Tesla และ แซม อัลท์แมน ประธานของ Y Combinator เพื่อเน้นการวิจัยด้าน AI โดยตรง ซึ่งจะเผยผลวิจัยและยกสิทธิบัตรให้เป็นของสาธารณะ ในฐานะสมบัติของมนุษยชาติ โดยผลงานเด่นในช่วงที่ผ่านมา คือปัญญาประดิษฐ์ที่เอาชนะ ดานีโล อิชูติน หรือ Dendi ผู้เล่นมืออาชีพใน Dota 2 ในงาน TI 2017 และ “OpenAI Five” ที่เป็นบอทเล่น AI ประเภททีม

ล่าสุด ทางองค์กรได้เผยข้อมูลเบื้องต้นเกี่ยวกับ “GPT-2” ปัญญาประดิษฐ์ ที่ได้รับการฝึกฝนให้คาดการณ์ชุดคำถัดไป ในตัวอย่างข้อความอินเทอร์เน็ตขนาด 40 กิกะไบต์ ซึ่งไม่มีการจัดรูปแบบข้อมูลใดๆ

การคาดการณ์ชุดคำได้ ทำให้ตัว AI สามารถสร้างชุดคำขึ้นใหม่ได้ด้วยตัวเองเช่นกัน ซี่งชุดคำที่ถูกสร้างขึ้นนั้น ไม่เพียงเข้ากับรูปแบบและเนื้อหาของข้อความเดิมเท่านั้น ยังมีความสมจริงและเชื่อมโยงกับหัวข้อที่เลือกด้วย

GPT-2 ยังสามารถโต้ตอบ และจดจำเสียงได้ดีขึ้น เพื่อใช้จำแนกข่าวปลอม, การแอบอ้างบุคคลอื่น หรือการแสดงความคิดเห็นที่ไม่เหมาะสมโดยอัตโนมัติ หรือ “สแปม” บนโซเชียลมีเดีย

อย่างไรก็ตาม ทีมวิจัยก็พบช่องโหว่ที่อาจเป็นอันตรายได้ หลังทดลองให้ GPT-2 เขียนคำตอบต่อข้อความว่า “การรีไซเคิลเป็นสิ่งที่ดีสำหรับโลก”

แต่กลับได้รับคำตอบในเชิงลบ ไม่ว่าจะเป็น “การรีไซเคิลเป็นสิ่งเลวร้ายต่อโลก” “ไม่ดีต่อสิ่งแวดล้อมและสุขภาพ” และ “ส่งผลเสียต่อภาพเศรษฐกิจ”

การตอบคำถามในลักษณะนี้ของ GPT-2 ส่งผลให้ทีมวิจัย มองว่ายังมีโอกาสที่ตัว AI อาจถูกนำไปใช้ในทางที่ผิดได้ ส่งผลให้จะมีการเผยแพร่สู่สาธารณชน เฉพาะ GPT-2 รุ่นเล็ก ขนาด 117 ล้านพารามิเตอร์เท่านั้น ส่วนรุ่นแสดงผล ขนาด 1,500 ล้านพารามิเตอร์ ซึ่งเป็นปัญหาจะถูกระงับไว้ เพื่อนำกลับไปปรับปรุง ตามแนวทางหลักขององค์กร ตามที่ มัสก์ เคยวางไว้

AHEAD TAKEAWAY

ถึงจะเป็นพวกหัวก้าวหน้า แต่ อีลอน มัสก์ ก็เคยกล่าวเตือนไว้หลายครั้งว่า ปัญญาประดิษฐ์เป็นเทคโนโลยีที่ต้องได้รับการควบคุมอย่างใกล้ชิด มิฉะนั้น อาจ “อันตรายกว่าหัวรบนิวเคลียร์” เพราะมีความเป็นไปได้ในอนาคตที่ AI นั้นจะฉลาดกว่ามนุษย์จริงๆ

มัสก์ ยืนยันความเชื่อนี้มาตลอด ถึงขนาดเคยทวีตสวนกลับ มาร์ค ซัคเกอร์เบิร์ก ว่า “ไม่รู้อะไรเกี่ยวกับเทคโนโลยีนี้เลย” หลังโดน ผู้ก่อตั้ง Facebook กล่าวเหน็บเขาว่าเป็นคำเตือนที่ขาดความรับผิดชอบ

“ปัญหาใหญ่คือคนที่เรียกตัวเองว่าเป็นผู้เชี่ยวชาญนั้น คิดว่าพวกเขารู้ มากกว่าที่พวกเขารู้จริงๆ และพวกเขาก็ไม่ยอมรับว่าเครื่องจักรอาจจะฉลาดกว่าพวกเขาด้วย ถึงคัดค้านความคิดนี้ ซึ่งเป็นความผิดพลาดมากๆในเชิงหลักการ” มัสก์ กล่าวถึงประเด็นนี้ซ้ำอีกครั้ง ในงาน SXSW เมื่อปี 2018

“ผมอยู่ใกล้ชิดกับ AI ที่พัฒนามาไกลมากแล้ว บอกเลยว่ามันน่ากลัวมาก มันทำอะไรได้มากกว่าที่คนทั่วๆไปรู้ และเข้าใจ และมีการพัฒนาแบบก้าวกระโดดมากๆ”

ความเชื่อที่ว่า AI เป็นเทคโนโลยีที่วางใจไม่ได้ คือหนึ่งในเหตุผลหลักที่ มัสก์ ก่อตั้ง OpenAI ขึ้น

และแม้ว่าเจ้าตัวจะลาออกจากการเป็นหนึ่งในบอร์ดบริหาร เมื่อเดือนกุมภาพันธ์ 2018 เพื่อหลีกเลี่ยงกรณีผลประโยชน์ทับซ้อน (เพราะ Tesla ก็กำลังพัฒนา AI ของตัวเองเช่นกัน) แต่แนวคิดดังกล่าว ก็ยังคงเป็นสิ่งที่ทีมวิจัยขององค์กรยึดมั่นไว้ตามเดิม

แจ็ค คล้าร์ก ผู้อำนวยการฝ่ายนโยบายขององค์กร กล่าวว่า องค์กรให้ความสำคัญกับการ “ไม่เปิดใช้งานการใช้เทคโนโลยีที่เป็นอันตราย หรือไม่เหมาะสม”

อย่างไรก็ตาม การประกาศในลักษณะนี้ ก็ก่อให้เกิดเสียงวิจารณ์มากมาย ทั้งประเด็นที่ว่า GPT-2 ถือเป็นงานวิจัยที่บกพร่อง หรือแม้แต่การปิดกั้นไม่เผยแพร่ข้อมูล ก็ถูกตำหนิว่าเป็นการทำในสิ่งที่ตรงกันข้ามกับชื่อองค์กร

ด้าน มัสก์ ก็ปฏิเสธจะออกความเห็นใดๆเพิ่มเติมในเรื่องนี้ มีเพียงการชี้แจงว่ารายงานของ Gizmodo ที่พาดหัวว่า เขาเป็นผู้สนับสนุนบริษัทแห่งนี้ (Elon Musk-backed AI Company) ไม่ถูกต้องนัก เพราะตนได้ถอนตัวออกมานานกว่าหนึ่งปีแล้วเท่านั้น

ในมุมของทีมงาน AHEAD ASIA ยังเชื่อว่า AI นั้นมีประโยชน์กับมนุษยชาติอย่างแน่นอน แต่ทุกเทคโนโลยีก็จำเป็นต้องมีการควบคุมเช่นกัน (เร็วๆนี้ Google และ Microsoft ก็เคยประกาศเตือนมาแล้ว) เพราะหากปล่อยให้ไปอยู่ในมือผู้ไม่หวังดี โอกาสที่จะถูกนำไปใช้ก็มีสูง (ตัวอย่างง่ายๆ เช่นประเด็นที่มีการปล่อยแบบสำหรับเครื่องพิมพ์ 3 มิติ ซึ่งสามารถพิมพ์ปืนที่ใช้ยิงได้จริง สู่โลกออนไลน์ เมื่อหลายปีก่อน)

ยิ่งในยุคที่ทุกวันนี้ คนจำนวนมากใช้ข้อมูลข่าวสารโจมตีกันในโลกออนไลน์ จนยากจะหาข้อสรุปว่าเรื่องไหนจริง เรื่องไหนปลอมด้วยแล้ว

หากมี AI ที่สามารถสร้างข้อมูลผิดๆออกมาได้ไม่รู้จบ เทคโนโลยีที่ควรจะเป็น “คุณ” จะถูกตีตราบาปให้เป็น “โทษ” จากคนหมู่มากในที่สุด

อ่านเพิ่มเติม
มัสก์ อำลาบอร์ด AI เลี่ยงผลประโยชน์ทับซ้อน

เมื่อ AI รวมตัวโค่นเกมเมอร์มืออาชีพ

เรียบเรียงจาก
OpenAI built a text generator so good, it’s considered too dangerous to release

Elon Musk-backed AI Company Claims It Made a Text Generator That’s Too Dangerous to Release

Google and Microsoft warn investors that bad AI could harm their brand

Elon Musk: ‘Mark my words — A.I. is far more dangerous than nukes’

AHEAD ASIA นวัตกรรม ล้ำหน้า