Google เปิดตัวสภาที่ปรึกษาด้านจริยธรรมด้าน ปัญญาประดิษฐ์ เพื่อให้คำแนะนำแก่หน่วยงาน องค์กร และคนในวงการ รวมถึงพิจารณาความเสี่ยงต่างๆ ซึ่งอาจเกิดจากการพัฒนาเทคโนโลยีนี้

ในรอบหลายปีที่ผ่านมา Google ถูกวิจารณ์อย่างหนักทั้งจากบุคคลภายนอก และคนในองค์กร ถึงแนวทางการพัฒนาและนำเทคโนโลยีใหม่ๆมาใช้

เช่น การจับมือกับ เพนตากอน พัฒนาปัญญาประดิษฐ์ควบคุมโดรน ในชื่อ Project Maven จนเกิดกระแสต่อต้านจากพนักงานที่พร้อมใจกันยื่นใบลาออกเพื่อประท้วง สุดท้ายทาง บริษัทต้องตัดสินใจไม่ต่อสัญญากับหน่วยงานรัฐในโครงการนี้อีก ตามด้วยการประกาศข้อกำหนด 7 เรื่องในการพัฒนาและใช้ AI เมื่อเดือนมิถุนายน 2018

และล่าสุด คือการประกาศตั้งสภาที่ปรึกษา ในชื่อ Advanced Technology External Advisory Council หรือ ATEAC ซึ่งประกอบด้วยสมาชิกทั้งสิ้นแปดราย นำโดย วิลเลียม โจเซฟ เบิร์นส์ อดีตรองปลัดกระทรวงการต่างประเทศสหรัฐฯ และ โจอันนา ไบรสัน รองศาสตราจารย์จากมหาวิทยาลัยบาธ ฯลฯ ซึ่งทั้งหมดมีกำหนดหารือร่วมกันเป็นครั้งแรกในเดือนเมษายน และยังจะมีการพูดคุยเพิ่มเติมอีกสามครั้ง ภายในปีนี้

สำหรับประเด็นที่จะมีการหารือนั้น มีทั้งเรื่องเทคโนโลยีตรวจจับใบหน้า ซึ่ง ไดแอน กรีน ผู้บริหาร Google Cloud ยอมรับว่ามีปัญหาเรื่องความโน้มเอียง จากลักษณะข้อมูลในมือทีมพัฒนาที่ไม่หลากหลายพอ รวมถึงการโต้เถียงว่าหุ่นยนต์ควรได้รับการปฏิบัติอย่างเท่าเทียมกับมนุษย์หรือไม่

 

AHEAD TAKEAWAY

ปัจจุบัน AI กลายมาเป็นเทคโนโลยี ที่ใกล้ชิดกับชีวิตประจำวันของมนุษย์ในหลายๆเรื่อง ด้วยความสามารถในการประมวลผล และแยกแยะข้อมูลได้อย่างรวดเร็ว

ไล่ตั้งแต่ การเงินการธนาคาร การวินิจฉัยโรค การยืนยันตัวตนและความปลอดภัยทางไซเบอร์ รวมถึงการเป็น “สมอง” และ “ตา” ให้กับ รถไร้คนขับ ซึ่งไม่หยุดเพียงแค่ซีกโลกตะวันตกเท่านั้น แม้แต่ จีน ก็มียุทธศาสตร์ชาติ ในการก้าวขึ้นเป็นมหาอำนาจด้านนี้โดยตรงด้วย

ไม่ได้เกิดมาแค่แย่งงานคน AI โคลน“ซัลวาดอร์ ดาลี” พาทัวร์มิวเซียม

แต่การที่เครื่องจักรและโปรแกรมเหล่านี้ถูกพัฒนาให้ทำงานได้อย่างอิสระคล้ายกับมนุษย์ ทำให้บุคคลในแวดวงวิทยาศาสตร์และเทคโนโลยีหลายราย

ไม่ว่าจะเป็น สตีเฟ่น ฮอว์กิง, บิล เกตส์ หรือ อีลอน มัสก์ แสดงความกังวลว่าหากไม่มีการควบคุมที่ดี AI อาจย้อนกลับมาเป็นปัญหากับมนุษยชาติมากกว่า

OpenAI สั่งเบรคเผยแพร่ AI สร้างคำอัตโนมัติ หวั่นถูกใช้ในทางผิด

การนำเสนอแนวคิดเรื่องจริยธรรมสำหรับปัญญาประดิษฐ์ จึงถูกผลักดันให้มีการนำไปปฏิบัติจริง โดยบริษัทชั้นนำที่เกี่ยวข้องกับเทคโนโลยีนี้

อาทิ หลักจริยธรรม 6 ข้อที่กำหนดขึ้นโดย DeepMind ทีมผู้พัฒนา AlphaGo ในเครือ Alphabet ซึ่งประกอบด้วย

  • ความเป็นส่วนตัว และความโปร่งใส
  • ผลกระทบต่อเศรษฐกิจ และความเท่าเทียม
  • การกำกับดูแล
  • การจัดการความเสี่ยง
  • ศีลธรรมที่สอดคล้องกับสังคม
  • การแก้ไขปัญหาที่ซับซ้อนของโลก

หรือแนวทางของ Google 7 ข้อสำหรับการนำเทคโนโลยีไปใช้ และ 4 แนวทางที่บริษัทจะไม่ปฏิบัติ (เช่น มีความเสี่ยงในทางใดทางหนึ่ง การพัฒนาอาวุธ การรวบรวมข้อมูลเพื่อนำข้อมูลไปใช้อย่างไม่เหมาะสม และลักษณะการใช้ที่ขัดต่อกฎหมายและสิทธิมนุษยชน)

แต่ปัญหาหลักๆสำหรับบริษัทเทคโนโลยีเหล่านี้ โดยเฉพาะในสหรัฐฯ ก็คือยังไม่มีกฎหมายที่ครอบคลุมเพียงพอ ทำให้แนวทางการพัฒนา และแนวคิดเรื่องจริยธรรมของแต่ละบริษัท ยังมีความแตกต่างกันอยู่ เมื่อเทียบกับสหภาพยุโรปที่มีการระบุบางประเด็นไว้ในกฎหมายคุ้มครองข้อมูลส่วนบุคคล (GDPR) เช่น สิทธิ์ในการปฏิเสธที่จะถูกตรวจสอบโดยเทคโนโลยีตรวจจับใบหน้า ฯลฯ

การก่อตั้งสภาที่ปรึกษาด้านจริยธรรมในเทคโนโลยี ปัญญาประดิษฐ์ ของ Google ก็ถือเป็นความพยายามในการที่จะสร้างมาตรฐานให้เกิดขึ้นในหมู่นักพัฒนาด้วยกันเอง ซึ่งก็น่าจะเป็นจุดเริ่มต้นที่ดี ระหว่างที่รอหน่วยงานรัฐปรับตัวให้ทันกับความเปลี่ยนแปลงของโลก ซึ่งบางครั้งอาจไม่ทันการณ์

เรียบเรียงจาก

Google announces AI ethics panel

อ่านเพิ่มเติม

5 คำทำนายโลกในอนาคต จาก “แอนดรูว์ อึ้ง” กูรูแห่ง AI

AHEAD ASIA นวัตกรรม ล้ำหน้า