Google เปิดตัวสภาที่ปรึกษาด้านจริยธรรมด้าน ปัญญาประดิษฐ์ เพื่อให้คำแนะนำแก่หน่วยงาน องค์กร และคนในวงการ รวมถึงพิจารณาความเสี่ยงต่างๆ ซึ่งอาจเกิดจากการพัฒนาเทคโนโลยีนี้
ในรอบหลายปีที่ผ่านมา Google ถูกวิจารณ์อย่างหนักทั้งจากบุคคลภายนอก และคนในองค์กร ถึงแนวทางการพัฒนาและนำเทคโนโลยีใหม่ๆมาใช้
เช่น การจับมือกับ เพนตากอน พัฒนาปัญญาประดิษฐ์ควบคุมโดรน ในชื่อ Project Maven จนเกิดกระแสต่อต้านจากพนักงานที่พร้อมใจกันยื่นใบลาออกเพื่อประท้วง สุดท้ายทาง บริษัทต้องตัดสินใจไม่ต่อสัญญากับหน่วยงานรัฐในโครงการนี้อีก ตามด้วยการประกาศข้อกำหนด 7 เรื่องในการพัฒนาและใช้ AI เมื่อเดือนมิถุนายน 2018
และล่าสุด คือการประกาศตั้งสภาที่ปรึกษา ในชื่อ Advanced Technology External Advisory Council หรือ ATEAC ซึ่งประกอบด้วยสมาชิกทั้งสิ้นแปดราย นำโดย วิลเลียม โจเซฟ เบิร์นส์ อดีตรองปลัดกระทรวงการต่างประเทศสหรัฐฯ และ โจอันนา ไบรสัน รองศาสตราจารย์จากมหาวิทยาลัยบาธ ฯลฯ ซึ่งทั้งหมดมีกำหนดหารือร่วมกันเป็นครั้งแรกในเดือนเมษายน และยังจะมีการพูดคุยเพิ่มเติมอีกสามครั้ง ภายในปีนี้
สำหรับประเด็นที่จะมีการหารือนั้น มีทั้งเรื่องเทคโนโลยีตรวจจับใบหน้า ซึ่ง ไดแอน กรีน ผู้บริหาร Google Cloud ยอมรับว่ามีปัญหาเรื่องความโน้มเอียง จากลักษณะข้อมูลในมือทีมพัฒนาที่ไม่หลากหลายพอ รวมถึงการโต้เถียงว่าหุ่นยนต์ควรได้รับการปฏิบัติอย่างเท่าเทียมกับมนุษย์หรือไม่
AHEAD TAKEAWAY
ปัจจุบัน AI กลายมาเป็นเทคโนโลยี ที่ใกล้ชิดกับชีวิตประจำวันของมนุษย์ในหลายๆเรื่อง ด้วยความสามารถในการประมวลผล และแยกแยะข้อมูลได้อย่างรวดเร็ว
ไล่ตั้งแต่ การเงินการธนาคาร การวินิจฉัยโรค การยืนยันตัวตนและความปลอดภัยทางไซเบอร์ รวมถึงการเป็น “สมอง” และ “ตา” ให้กับ รถไร้คนขับ ซึ่งไม่หยุดเพียงแค่ซีกโลกตะวันตกเท่านั้น แม้แต่ จีน ก็มียุทธศาสตร์ชาติ ในการก้าวขึ้นเป็นมหาอำนาจด้านนี้โดยตรงด้วย
ไม่ได้เกิดมาแค่แย่งงานคน AI โคลน“ซัลวาดอร์ ดาลี” พาทัวร์มิวเซียม
แต่การที่เครื่องจักรและโปรแกรมเหล่านี้ถูกพัฒนาให้ทำงานได้อย่างอิสระคล้ายกับมนุษย์ ทำให้บุคคลในแวดวงวิทยาศาสตร์และเทคโนโลยีหลายราย
ไม่ว่าจะเป็น สตีเฟ่น ฮอว์กิง, บิล เกตส์ หรือ อีลอน มัสก์ แสดงความกังวลว่าหากไม่มีการควบคุมที่ดี AI อาจย้อนกลับมาเป็นปัญหากับมนุษยชาติมากกว่า
OpenAI สั่งเบรคเผยแพร่ AI สร้างคำอัตโนมัติ หวั่นถูกใช้ในทางผิด
การนำเสนอแนวคิดเรื่องจริยธรรมสำหรับปัญญาประดิษฐ์ จึงถูกผลักดันให้มีการนำไปปฏิบัติจริง โดยบริษัทชั้นนำที่เกี่ยวข้องกับเทคโนโลยีนี้
อาทิ หลักจริยธรรม 6 ข้อที่กำหนดขึ้นโดย DeepMind ทีมผู้พัฒนา AlphaGo ในเครือ Alphabet ซึ่งประกอบด้วย
- ความเป็นส่วนตัว และความโปร่งใส
- ผลกระทบต่อเศรษฐกิจ และความเท่าเทียม
- การกำกับดูแล
- การจัดการความเสี่ยง
- ศีลธรรมที่สอดคล้องกับสังคม
- การแก้ไขปัญหาที่ซับซ้อนของโลก
หรือแนวทางของ Google 7 ข้อสำหรับการนำเทคโนโลยีไปใช้ และ 4 แนวทางที่บริษัทจะไม่ปฏิบัติ (เช่น มีความเสี่ยงในทางใดทางหนึ่ง การพัฒนาอาวุธ การรวบรวมข้อมูลเพื่อนำข้อมูลไปใช้อย่างไม่เหมาะสม และลักษณะการใช้ที่ขัดต่อกฎหมายและสิทธิมนุษยชน)
แต่ปัญหาหลักๆสำหรับบริษัทเทคโนโลยีเหล่านี้ โดยเฉพาะในสหรัฐฯ ก็คือยังไม่มีกฎหมายที่ครอบคลุมเพียงพอ ทำให้แนวทางการพัฒนา และแนวคิดเรื่องจริยธรรมของแต่ละบริษัท ยังมีความแตกต่างกันอยู่ เมื่อเทียบกับสหภาพยุโรปที่มีการระบุบางประเด็นไว้ในกฎหมายคุ้มครองข้อมูลส่วนบุคคล (GDPR) เช่น สิทธิ์ในการปฏิเสธที่จะถูกตรวจสอบโดยเทคโนโลยีตรวจจับใบหน้า ฯลฯ
การก่อตั้งสภาที่ปรึกษาด้านจริยธรรมในเทคโนโลยี ปัญญาประดิษฐ์ ของ Google ก็ถือเป็นความพยายามในการที่จะสร้างมาตรฐานให้เกิดขึ้นในหมู่นักพัฒนาด้วยกันเอง ซึ่งก็น่าจะเป็นจุดเริ่มต้นที่ดี ระหว่างที่รอหน่วยงานรัฐปรับตัวให้ทันกับความเปลี่ยนแปลงของโลก ซึ่งบางครั้งอาจไม่ทันการณ์
เรียบเรียงจาก
Google announces AI ethics panel
อ่านเพิ่มเติม
AHEAD ASIA นวัตกรรม ล้ำหน้า