โตรอนโต: เมื่อเดือนมิถุนายนที่ผ่านมา สำนักงานความปลอดภัยการจราจรบนทางหลวงแห่งชาติของสหรัฐอเมริกาได้ประกาศการสอบสวน ซอฟต์แวร์ระบบขับเคลื่อน อัตโนมัติของเทสลาข้อมูลที่รวบรวมจากการขัดข้อง 16 ครั้งทำให้เกิดความกังวลเกี่ยวกับความเป็นไปได้ที่ปัญญาประดิษฐ์ (AI) ของเทสลาอาจถูกตั้งโปรแกรมให้หยุดการทำงานเมื่อการชนใกล้เข้ามา ด้วยวิธีนี้ ผู้ขับขี่รถยนต์ ไม่ใช่ผู้ผลิต จะต้องรับผิดตามกฎหมายในขณะที่เกิดผลกระทบ
สะท้อนให้เห็นถึงการเปิดเผยว่ารถไร้คนขับของ Uber
ซึ่งชนและสังหารผู้หญิงคนหนึ่ง ตรวจพบเธอ 6 วินาทีก่อนชน แต่ AI ไม่ได้ตั้งโปรแกรมให้จดจำคนเดินถนนนอกทางม้าลายที่กำหนด ทำไม เนื่องจากคนเดินข้ามทางม้าลายนั้นไม่ถูกกฎหมาย
บางคนเชื่อว่าเรื่องราวเหล่านี้เป็นข้อพิสูจน์ว่าแนวคิดเรื่องความรับผิดของเราจำเป็นต้องเปลี่ยนแปลง สำหรับพวกเขาแล้ว นวัตกรรมอย่างต่อเนื่องที่ไม่มีข้อจำกัดและการนำ AI มาใช้อย่างแพร่หลายคือสิ่งที่สังคมของเราต้องการมากที่สุด ซึ่งหมายถึงการปกป้ององค์กรแห่งนวัตกรรมจากการถูกฟ้องร้อง
แต่ถ้าในความเป็นจริงแล้ว ความเข้าใจของเราเกี่ยวกับการแข่งขันที่ต้องพัฒนาแทนล่ะ
หาก AI เป็นศูนย์กลางในอนาคตของเรา เราจำเป็นต้องให้ความสนใจอย่างรอบคอบต่อสมมติฐานเกี่ยวกับอันตรายและผลประโยชน์ที่ตั้งโปรแกรมไว้ในผลิตภัณฑ์เหล่านี้ มีแรงจูงใจที่ผิดเพี้ยนในการออกแบบ AI ที่ไร้เดียงสาเกินจริง
แนวทางที่ดีกว่าจะเกี่ยวข้องกับกลยุทธ์การลดอันตรายที่กว้างขวางมากขึ้น บางทีเราควรสนับสนุนการทำงานร่วมกันทั่วทั้งอุตสาหกรรมในอัลกอริทึมช่วยชีวิตบางประเภท โดยออกแบบให้มีประสิทธิภาพสูงสุดมากกว่าความได้เปรียบด้านกรรมสิทธิ์
การแก้ไขทุกครั้งจะสร้างปัญหาใหม่
เสียงขององค์กรที่ดังและทรงพลังที่สุดบางส่วนต้องการให้เราไว้วางใจเครื่องจักรในการแก้ปัญหาสังคมที่ซับซ้อน AI ได้รับการยกย่องว่าเป็นทางออกที่เป็นไปได้สำหรับปัญหาการสื่อสารข้ามวัฒนธรรม การดูแลสุขภาพ และแม้กระทั่งอาชญากรรมและความไม่สงบในสังคมบริษัทต้องการให้เราลืมว่านวัตกรรม AI สะท้อนถึงอคติของโปรแกรมเมอร์ มีความเชื่อผิดๆ ที่ว่า ตราบใดที่การเสนอการออกแบบผลิตภัณฑ์ผ่านข้อจำกัดทางกฎหมายและนโยบายภายใน เทคโนโลยีที่ได้ก็ไม่น่าจะเป็นอันตราย
แต่อันตรายกลับเกิดขึ้นในรูปแบบที่คาดไม่ถึง เนื่องจากทีมออกแบบของ Uber ได้เรียนรู้เมื่อรถของพวกเขาเจอคนข้ามถนนเป็นครั้งแรก
จะเกิดอะไรขึ้นเมื่อผลที่ตามมาของ AI ไม่เป็นที่รู้จักในทันที หรือเมื่อมันยากเกินไปที่จะทำให้ AI ออฟไลน์เมื่อจำเป็น? ซึ่งเป็นสิ่งที่เกิดขึ้นเมื่อโบอิ้งลังเลที่จะต่อสายดินของเครื่องบินไอพ่น 737 แม็กซ์หลังจากพบความผิดพลาดในการเขียนโปรแกรมจนเป็นเหตุให้เครื่องบินตก และส่งผลให้มีผู้เสียชีวิต 346 คน
เราต้องปรับเปลี่ยนการอภิปรายทางเทคโนโลยีอย่างต่อเนื่องในแง่ศีลธรรม การทำงานของเทคโนโลยีต้องการคำแนะนำที่ไม่ต่อเนื่องและชัดเจนเมื่อใดก็ตามที่ไม่มีความเห็นพ้องต้องกันทางศีลธรรมเฉพาะเจาะจง บุคคลธรรมดาๆ ที่ทำงานของตนจะเรียกร้อง โดยมักไม่ใช้เวลาพิจารณาถึงผลที่ตามมาจากการกระทำของตนทั้งหมด
ที่บริษัทเทคโนโลยีส่วนใหญ่ ข้อเสนอสำหรับผลิตภัณฑ์จะได้รับการตรวจสอบโดยทีมกฎหมายภายในบริษัท มันจะดึงดูดความสนใจไปที่นโยบายที่นักออกแบบต้องพิจารณาในการเขียนโปรแกรม
นโยบายเหล่านี้อาจเกี่ยวข้องกับข้อมูลที่ถูกใช้ ข้อมูลมาจากที่ใด ข้อมูลใดถูกจัดเก็บหรือใช้งานอย่างไร (เช่น ไม่ระบุตัวตน รวมหรือกรอง) ข้อกังวลหลักของทีมกฎหมายคือความรับผิด ไม่ใช่จริยธรรมหรือการรับรู้ทางสังคม
credit : fpcbergencounty.com viagrapreiseapotheke.net houseleoretilus.org thenevadasearch.com olivierdescosse.net seoservicesgroup.net prosperitymelandria.com pennsylvaniachatroom.net theweddingpartystudio.com