ปัญญาประดิษฐ์

Google ตั้งสภาที่ปรึกษาฯ เคลียร์ปัญหาจริยธรรมปัญญาประดิษฐ์

Google เปิดตัวสภาที่ปรึกษาด้านจริยธรรมด้าน ปัญญาประดิษฐ์ เพื่อให้คำแนะนำแก่หน่วยงาน องค์กร และคนในวงการ รวมถึงพิจารณาความเสี่ยงต่างๆ ซึ่งอาจเกิดจากการพัฒนาเทคโนโลยีนี้

ในรอบหลายปีที่ผ่านมา Google ถูกวิจารณ์อย่างหนักทั้งจากบุคคลภายนอก และคนในองค์กร ถึงแนวทางการพัฒนาและนำเทคโนโลยีใหม่ๆมาใช้

เช่น การจับมือกับ เพนตากอน พัฒนาปัญญาประดิษฐ์ควบคุมโดรน ในชื่อ Project Maven จนเกิดกระแสต่อต้านจากพนักงานที่พร้อมใจกันยื่นใบลาออกเพื่อประท้วง สุดท้ายทาง บริษัทต้องตัดสินใจไม่ต่อสัญญากับหน่วยงานรัฐในโครงการนี้อีก ตามด้วยการประกาศข้อกำหนด 7 เรื่องในการพัฒนาและใช้ AI เมื่อเดือนมิถุนายน 2018

และล่าสุด คือการประกาศตั้งสภาที่ปรึกษา ในชื่อ Advanced Technology External Advisory Council หรือ ATEAC ซึ่งประกอบด้วยสมาชิกทั้งสิ้นแปดราย นำโดย วิลเลียม โจเซฟ เบิร์นส์ อดีตรองปลัดกระทรวงการต่างประเทศสหรัฐฯ และ โจอันนา ไบรสัน รองศาสตราจารย์จากมหาวิทยาลัยบาธ ฯลฯ ซึ่งทั้งหมดมีกำหนดหารือร่วมกันเป็นครั้งแรกในเดือนเมษายน และยังจะมีการพูดคุยเพิ่มเติมอีกสามครั้ง ภายในปีนี้

สำหรับประเด็นที่จะมีการหารือนั้น มีทั้งเรื่องเทคโนโลยีตรวจจับใบหน้า ซึ่ง ไดแอน กรีน ผู้บริหาร Google Cloud ยอมรับว่ามีปัญหาเรื่องความโน้มเอียง จากลักษณะข้อมูลในมือทีมพัฒนาที่ไม่หลากหลายพอ รวมถึงการโต้เถียงว่าหุ่นยนต์ควรได้รับการปฏิบัติอย่างเท่าเทียมกับมนุษย์หรือไม่

 

AHEAD TAKEAWAY

ปัจจุบัน AI กลายมาเป็นเทคโนโลยี ที่ใกล้ชิดกับชีวิตประจำวันของมนุษย์ในหลายๆเรื่อง ด้วยความสามารถในการประมวลผล และแยกแยะข้อมูลได้อย่างรวดเร็ว

ไล่ตั้งแต่ การเงินการธนาคาร การวินิจฉัยโรค การยืนยันตัวตนและความปลอดภัยทางไซเบอร์ รวมถึงการเป็น “สมอง” และ “ตา” ให้กับ รถไร้คนขับ ซึ่งไม่หยุดเพียงแค่ซีกโลกตะวันตกเท่านั้น แม้แต่ จีน ก็มียุทธศาสตร์ชาติ ในการก้าวขึ้นเป็นมหาอำนาจด้านนี้โดยตรงด้วย

ไม่ได้เกิดมาแค่แย่งงานคน AI โคลน“ซัลวาดอร์ ดาลี” พาทัวร์มิวเซียม

แต่การที่เครื่องจักรและโปรแกรมเหล่านี้ถูกพัฒนาให้ทำงานได้อย่างอิสระคล้ายกับมนุษย์ ทำให้บุคคลในแวดวงวิทยาศาสตร์และเทคโนโลยีหลายราย

ไม่ว่าจะเป็น สตีเฟ่น ฮอว์กิง, บิล เกตส์ หรือ อีลอน มัสก์ แสดงความกังวลว่าหากไม่มีการควบคุมที่ดี AI อาจย้อนกลับมาเป็นปัญหากับมนุษยชาติมากกว่า

OpenAI สั่งเบรคเผยแพร่ AI สร้างคำอัตโนมัติ หวั่นถูกใช้ในทางผิด

การนำเสนอแนวคิดเรื่องจริยธรรมสำหรับปัญญาประดิษฐ์ จึงถูกผลักดันให้มีการนำไปปฏิบัติจริง โดยบริษัทชั้นนำที่เกี่ยวข้องกับเทคโนโลยีนี้

อาทิ หลักจริยธรรม 6 ข้อที่กำหนดขึ้นโดย DeepMind ทีมผู้พัฒนา AlphaGo ในเครือ Alphabet ซึ่งประกอบด้วย

  • ความเป็นส่วนตัว และความโปร่งใส
  • ผลกระทบต่อเศรษฐกิจ และความเท่าเทียม
  • การกำกับดูแล
  • การจัดการความเสี่ยง
  • ศีลธรรมที่สอดคล้องกับสังคม
  • การแก้ไขปัญหาที่ซับซ้อนของโลก

หรือแนวทางของ Google 7 ข้อสำหรับการนำเทคโนโลยีไปใช้ และ 4 แนวทางที่บริษัทจะไม่ปฏิบัติ (เช่น มีความเสี่ยงในทางใดทางหนึ่ง การพัฒนาอาวุธ การรวบรวมข้อมูลเพื่อนำข้อมูลไปใช้อย่างไม่เหมาะสม และลักษณะการใช้ที่ขัดต่อกฎหมายและสิทธิมนุษยชน)

แต่ปัญหาหลักๆสำหรับบริษัทเทคโนโลยีเหล่านี้ โดยเฉพาะในสหรัฐฯ ก็คือยังไม่มีกฎหมายที่ครอบคลุมเพียงพอ ทำให้แนวทางการพัฒนา และแนวคิดเรื่องจริยธรรมของแต่ละบริษัท ยังมีความแตกต่างกันอยู่ เมื่อเทียบกับสหภาพยุโรปที่มีการระบุบางประเด็นไว้ในกฎหมายคุ้มครองข้อมูลส่วนบุคคล (GDPR) เช่น สิทธิ์ในการปฏิเสธที่จะถูกตรวจสอบโดยเทคโนโลยีตรวจจับใบหน้า ฯลฯ

การก่อตั้งสภาที่ปรึกษาด้านจริยธรรมในเทคโนโลยี ปัญญาประดิษฐ์ ของ Google ก็ถือเป็นความพยายามในการที่จะสร้างมาตรฐานให้เกิดขึ้นในหมู่นักพัฒนาด้วยกันเอง ซึ่งก็น่าจะเป็นจุดเริ่มต้นที่ดี ระหว่างที่รอหน่วยงานรัฐปรับตัวให้ทันกับความเปลี่ยนแปลงของโลก ซึ่งบางครั้งอาจไม่ทันการณ์

เรียบเรียงจาก

Google announces AI ethics panel

อ่านเพิ่มเติม

5 คำทำนายโลกในอนาคต จาก “แอนดรูว์ อึ้ง” กูรูแห่ง AI

AHEAD ASIA นวัตกรรม ล้ำหน้า

Subscribe to Our Newsletter

Loading
Total
31
Shares
Previous Article
AI

McDonald's ใช้ AI เลือกเมนูเอาใจลูกค้า เพิ่มยอดขายไดรฟ์ทรู

Next Article
ปัญญาประดิษฐ์

เตรียมพบรถยนต์ที่รับรู้อารมณ์คนขับ

Related Posts