คณะกรรมาธิการด้านกฎหมายของสหราชอาณาจักร เสนอร่างกฎหมายฉบับใหม่ ให้ผู้ใช้งาน รถขับเคลื่อนอัตโนมัติ ไม่ต้องรับผิดชอบในอุบัติเหตุที่เกิดขึ้น หากพิสูจน์ได้ ว่าเป็นความผิดพลาดของซอฟต์แวร์ที่ควบคุม

ภายใต้กฎหมายฉบับดังกล่าว ยังครอบคลุมถึงกรณีอื่น ๆ ที่ผู้ใช้งานไม่ต้องรับผิดชอบด้วย เช่น ขับรถโดยประมาท ใช้ความเร็วเกินกำหนด ฝ่าไฟแดง หากเกิดขึ้นในระหว่างเปิดใช้งานระบบขับเคลื่อนอัตโนมัติ (self-driving mode)

อย่างไรก็ตาม ร่างกฎหมายฉบับเดียวกัน ซึ่งครอบคลุมทั้งรถขับเคลื่อนอัตโนมัติสมบูรณ์แบบ และรถในท้องตลาดซึ่งใช้งานซอฟต์แวร์ช่วยในการขับรถ ยังระบุเงื่อนไขสำคัญที่จะทำให้ผู้ใช้งานไม่ต้องรับผิดชอบไว้ด้วย คือหลักฐานว่า ภายใน 10-40 วินาที ผู้ใช้งานได้พยายามที่จะดึงการควบคุมรถกลับมา หากพบว่าซอฟต์แวร์ที่ควบคุมกำลังจะฝืนกฎจราจร หรือก่อให้เกิดอุบัติเหตุ

AHEAD TAKEAWAY

การโต้เถียงกันว่าใครควรจะต้องเป็นผู้รับผิดชอบ ระหว่างผู้โดยสาร เจ้าของรถ หรือบริษัทผู้ผลิต หาก รถขับเคลื่อนอัตโนมัติ เกิดอุบัติเหตุนั้น มีมาโดยตลอด เนื่องจากนี่คือเทคโนโลยีที่กำลังถูกพัฒนา และผลักดันให้มีการใช้งานจริงในอนาคตอันใกล้

เพราะประเด็นสำคัญที่มีการพูดถึงกันมาก คือในทางทฤษฎี AI หรือตัวซอฟต์แวร์ที่ควบคุมนั้น มีวิธีการปฏิบัติที่ไม่พลิกแพลงเท่ามนุษย์ หากเกิดเหตุการณ์ไม่คาดฝัน

และที่ผ่านมา ก็เคยมีอุบัติเหตุรุนแรงเกิดขึ้นแล้ว ทั้งในกรณีของ Tesla (ผู้โดยสารเสียชีวิต) และ Uber (ชนคนเดินถนนเสียชีวิต)

ทอม ซูเพอร์ ผู้อำนวยการฝ่ายประกันทรัพย์สินและอุบัติเหตุของ J.D. Power ให้ทรรศนะว่า กว่าที่ข้อสรุปเหล่านี้ จะเข้ารูปเข้ารอย ก็อาจต้องอาศัยข้อมูลของเหตุการณ์ที่เกิดขึ้นจริง รวมถึงวิจารณญานของผู้พิพากษา และคำตัดสินในชั้นศาล เพื่อนำมาเป็นแม่แบบในการร่างกฎหมาย

อ่านเพิ่มเติม อุบัติเหตุรถไร้คนขับ ใครต้องรับผิดชอบ?

อุบัติเหตุรถไร้คนขับ ใครรับผิดชอบ?

 

ขณะที่ในร่างกฎหมายที่คณะกรรมาธิการด้านกฎหมายของสหราชอาณาจักรเสนอขึ้นมานั้น แม้จะระบุว่าผู้ใช้งานจะไม่ต้องรับผิดชอบ หากพิสูจน์ได้ว่าเป็นความผิดพลาดของระบบที่ควบคุม

แต่ก็มีเงื่อนไขว่าต้องมีหลักฐานชัดเจนว่าพยายามดึงการควบคุมรถกลับมาเป็นของตัวเอง หากพบว่าจะเกิดอุบัติเหตุ นั่นแปลว่าต่อให้ใช้รถขับเคลื่อนอัตโนมัติ ผู้ใช้งานก็ยังต้องมีสมาธิกับสิ่งที่เกิดบนท้องถนนด้วย

ที่ผ่านมา อุบัติเหตุที่เกิดขึ้นกับรถขับเคลื่อนอัตโนมัติหลายราย มีหลักฐานพบว่าผู้ใช้งาน (โดยเฉพาะเจ้าของรถ Tesla) เข้าข่ายประมาท หรือมั่นใจในเทคโนโลยีของรถเกินไป ทั้งที่ได้รับคำเตือนจากผู้ผลิตแล้ว

เพราะปัจจุบัน ระดับเทคโนโลยีของรถขับเคลื่อนอัตโนมัติในท้องตลาดอยู่ที่ 2 (ผู้ใช้งานต้องควบคุมรถเอง 100%) โดยมี ฮอนด้า Legend รุ่นล่าสุดที่จะวางตลาดในสหรัฐฯ ต้นปีหน้า จะเป็นรุ่นแรกที่ใช้เทคโนโลยีระดับ 3 (ละสายตาจากถนนได้เป็นช่วงสั้นๆ ในบางโอกาส)

ขณะที่ฟีเจอร์ Autopilot ของ Tesla ก็ยังถูกจัดโดยองค์กรควบคุมมาตรฐานด้านวิศวกรรมเกี่ยวกับการขนส่ง (SAE) ให้เป็นเทคโนโลยีช่วยประคองรถให้อยู่เลน ซึ่งทำได้ในระดับ “ดีมาก” แต่ไม่ถือเป็นระบบขับเคลื่อนอัตโนมัติ เพราะเมื่อเกิดเหตุการณ์ไม่คาดฝัน โดยที่ผู้ใช้งานไม่อยู่ในสภาพพร้อม ก็อาจนำไปสู่อุบัติเหตุได้

การเดินหน้าผลักดันกฎหมายฉบับใหม่ ที่เกี่ยวข้องกับรถขับเคลื่อนอัตโนมัติ ถือเป็นวิสัยทัศน์ที่มองเห็นแนวโน้มของเทคโนโลยีใหม่ที่จะมีบทบาทต่อชีวิตประจำวันในอนาคต

แต่ในเวลาเดียวกัน ระหว่างนี้ ฝ่ายผู้บังคับใช้กฎหมาย และผู้ผลิตผู้พัฒนา ก็ต้องสร้างความเข้าใจให้กับผู้ใช้งานควบคู่กันไปด้วยว่า การใช้งานรถบนท้องถนน ยังจำเป็นต้องมีความรับผิดชอบต่อตนและผู้ใช้งานคนอื่น ๆ ด้วย เพื่อให้เทคโนโลยีขับเคลื่อนอัตโนมัติ มุ่งหน้าไปสู่การลดอุบัติเหตุบนท้องถนนได้จริง

เรียบเรียงจาก

UK says drivers in self-driving cars shouldn’t be liable for accidents

Motorists in self-driving cars will not be legally liable for accidents

AHEAD ASIA นวัตกรรม ล้ำหน้า