Advertisement

Apple เปิดตัว iPhone 8, iPhone 8 Plus, Apple TV และ Apple Watch รุ่นใหม่ สู่สายตาสาธารณชนให้ได้ยลโฉมกันไปเมื่อคืนที่ผ่านมา แต่สิ่งที่เป็นพระเอกของงานก็คือ iPhone X (อ่านว่าไอโฟน เท็น) ที่มีการเปลี่ยนแปลงครั้งใหญ่ทั้งในด้านการออกแบบฟีเจอร์และเทคโนโลยี

หากมองย้อนไปตั้งแต่งาน WWDC เมื่อช่วงกลางปีที่ผ่านมา Apple หันมาเอาจริงเอาจังกับการพัฒนา Augmented Reality โดยการเปิดตัวเฟรมเวิร์คใหม่อย่าง ARKit และหลังจากการเปิดตัว iPhone X, Apple ก็พยายามจะบอกเราเป็นนัยๆ ว่ายุคของ Artificial Intelligence ได้ใกล้เข้ามาแล้ว

AR จะเป็นมากกว่า Reality

ในงาน WWDC 2017 ที่จัดขึ้นเมื่อต้นเดือนมิถุนายนที่ผ่านมา Apple ได้เปิดตัวเฟรมเวิร์คใหม่ชื่อ ARKit บน iOS ที่ใช้สำหรับการสร้าง Augmented Reality โดยเฉพาะ

ARKit จะใช้ Visual Inertial Odometry(VIO) ในการติดตามสภาพแวดล้อมรอบตัวเรา และรวบรวมข้อมูลที่ได้จากเซนเซอร์กล้องเข้ากับข้อมูลจาก CoreMotion ซึ่งข้อมูลเหล่านี้จะช่วยให้ตัวอุปกรณ์สามารถรับรู้ความเร็วในการเคลื่อนไหวของเราได้โดยที่ไม่ต้องทำการคาลิเบรตใดๆ ทั้งสิ้น และ Apple ยังวางหมากให้อุปกรณ์ iOS devices จะกลายเป็นหนึ่งในแพลตฟอร์ม AR ที่ใหญ่ที่สุดในอนาคต

และใน iPhone X เราก็ได้เห็นแล้วว่า AR จะสามารถทำอะไรได้อีกบ้าง โดยการใส่กล้องหน้าใหม่ที่เรียกว่า TrueDepth Camera ที่ประกอบไปด้วยเซนเซอร์มากมาย ซึ่งนอกจากจะเป็นส่วนหลักในการทำงานของ Face ID ที่ใช้ในการปลดล๊อคอุปกรณ์แล้วยังสามารถสร้าง Animoji ที่จะปรับเปลี่ยนไปตามหน้าตาและอารมณ์ของผู้ใช้ได้แบบ Real-time

และสิ่งนี้เองแสดงให้เห็นว่าต่อไปการพัฒนา AR อาจจะไม่ใช่แค่เพียงการตอบสนองกับสภาพแวดล้อมอีกต่อไป แต่จะสามารถโต้ตอบกับผู้ใช้ได้แบบ Real-time อีกด้วย ซึ่งในปัจจุบันการพัฒนา AR บนสมาร์ทโฟนก็ยังมีข้อจำกัดอยู่บ้าง เช่น ต้องใช้หน่วยประมวลผลกราฟิกที่มีประสิทธิภาพสูงในการแสดงผลภาพแบบ Real-time เป็นต้น

AI มาไกลกว่าที่คิด

ย้อนไปเมื่อปี 2011 เป็นครั้งแรกที่เราได้รู้จักกับ Intelligent Assistant บนสมาร์ทโฟนที่มีชื่อว่า Siri หลังจากนั้นก็มี Bixby, Google Assistant และอีกหลากหลายแพลตฟอร์มตามมา สิ่งเหล่านี้ล้วนแต่เป็น Machine learning ทั้งนั้น ซึ่งเป็นการในอัลกอลิทึมต่างๆ ในการเรียนรู้และวิเคราะห์ข้อมูล เพื่อที่จะนำข้อมูลเหล่านั้นมาสร้างโมเดลจำลองในการตัดสินใจและคาดเดาเหตุการณ์บางอย่าง

ยกตัวอย่างเช่น การถ่ายแบบด้วยโหมด Portrait บนสมาร์ทโฟนก็ใช้หลักการทำงานของ Machine Learning ในการแยกแยะและสร้างภาพจำลองของวัตถุและพื้นหลัง ซึ่งบางค่ายก็มีชิพประมวลผลภาพแยกออกมาต่างหากที่เรียกว่า Image Signal Processor(ISP) ซึ่งสร้างขึ้นมาเพื่อรองรับการประมวลผลภาพถ่ายโดยเฉพาะ

และข้อมูลที่ซับซ้อนและมหาศาลก็จำเป็นที่จะต้องใช้หน่วยประมวลผลที่มีสมรรถนะสูงและชาญฉลาดเช่นกัน ซึ่งสิ่งนี้เองทำให้เกิดการพัฒนาหน่วยประมวลผลที่มีกระบวนการคิดแบบ Neural ขึ้นมา เช่น ชิพ A11 Bionic ที่ Apple ใส่มาใน iPhone X

แล้ว Neural Engine คืออะไร?

Neural ก็คือฮาร์ดแวร์ที่ได้รับการพัฒนามาโดยเฉพาะสำหรับการประมวลผลของ Machine Learning ซึ่งเป็นปัญญาประดิษฐ์ประเภทหนึ่งที่ช่วยให้คอมพิวเตอร์สามารถเรียนรู้จากการเฝ้าสังเกต เป็นเทคนิคที่เลียนแบบการทำงานของสมองมนุษย์ ประกอบไปด้วยเซลล์ประสาทเชื่อมโยงกันเป็นโครงข่าย และสามารถประมวลผลได้ครั้งละจำนวนมากๆ ช่วยสนับสนุนการเรียนรู้ วิเคราะห์ คาดการณ์ และตัดสินใจได้แยบยลมากขึ้น เช่น การปลดล็อคด้วย Face ID ใน iPhone X ที่ต้องใช้กระบวนการคิดและวิเคราะห์ที่ซับซ้อน

และ Apple ก็ไม่ใช่เจ้าแรกที่มีหน่วยประมวลแบบนี้ ก่อนหน้านี้ Huawei ก็ได้เปิดตัวชิพ Kirin 970 ที่มี Neural Processing Unit ฝังอยู่ภายในด้วย

จากทั้งหมดนี้จะเห็นได้ว่า AR และ AI เข้ามาอยู่ใกล้ตัวเรามากขึ้น ซึ่งสิ่งเหล่านี้ก็เป็นส่วนหนึ่งที่ทำให้เราเห็นว่าหนทางสู่อนาคตที่เราอยากเห็นนั้นเป็นอย่างไรในวันนี้

*ขอบคุณภาพจาก Apple, YouTube

**เรียบเรียงจาก qzwiredthevergetechcrunch และ developer.apple

Facebook Comments