เว็บตรง นักศึกษาและนักวิจัยต้องเตรียมพร้อมรับมือกับประเด็นด้านจริยธรรมในการใช้บิ๊กดาต้า หุ่นยนต์ และปัญญาประดิษฐ์ ให้ดียิ่งขึ้น เพื่อไม่ให้การวิจัยและการประยุกต์ใช้ในวัตถุประสงค์ที่ชั่วร้าย รวมถึงอาวุธสงคราม การประชุมของอธิการบดีมหาวิทยาลัยแปซิฟิก ริม ที่ได้ยินเมื่อเร็วๆ นี้ ไทเปไต้หวัน.โทบี้ วอลช์ ศาสตราจารย์ด้านปัญญาประดิษฐ์ (AI) แห่งมหาวิทยาลัยนิวเซาธ์เวลส์ ประเทศออสเตรเลีย กล่าวว่า “เราต้องระวังให้มากว่าปัญญาประดิษฐ์จะไม่ถูกย้อมด้วยการใช้เทคโนโลยีนี้ในการตัดสินใจที่จะฆ่าคน” การพูดในที่ประชุมของสมาคมมหาวิทยาลัยแปซิฟิกริม (APRU)
การประชุมในหัวข้อ ‘อนาคตดิจิทัลของเราในโลกที่มีการแบ่งแยก
‘ และจัดขึ้นในวันที่ 24-26 มิถุนายน ที่ไทเป มีผู้เข้าร่วมประมาณ 100 คนจากเอเชียและแปซิฟิก ออสตราเลเซีย และอเมริกาเหนือและใต้ 30 คนเป็นอธิการบดีของมหาวิทยาลัย อธิการบดี หรือรองอธิการบดี
“ข้อโต้แย้งที่หนักแน่นประการหนึ่งว่าทำไมเราถึงต้องกังวลในวันนี้เกี่ยวกับศักยภาพของการใช้ AI ในการทำสงคราม เพราะเราไม่รู้วิธีสร้างเครื่องจักรที่สามารถจัดการกับความรับผิดชอบทางจริยธรรมของผู้มีชีวิตและผู้ที่เสียชีวิต” วอลช์กล่าว
“แม้ว่าจะมีหลักการทางจริยธรรมที่ชัดเจนสำหรับการต่อสู้สงคราม – กฎหมายมนุษยธรรมระหว่างประเทศ – เราไม่รู้วิธีเขียน [ซอฟต์แวร์สำหรับ] เครื่องจักรในปัจจุบันเพื่อทำเช่นนั้น”
“หลักการทางจริยธรรมระดับสูงไม่สามารถรวมเข้ากับอัลกอริทึมได้” Pascale Fung ผู้อำนวยการศูนย์วิจัยปัญญาประดิษฐ์แห่งมหาวิทยาลัยวิทยาศาสตร์และเทคโนโลยีฮ่องกงกล่าว
ความรับผิดชอบต่อชีวิตมนุษย์ยังเป็นประเด็นสำคัญในการพัฒนารถยนต์ไร้คนขับอีกด้วย การทำความเข้าใจและจัดการผลที่ตามมาของเทคโนโลยีดังกล่าวในขณะที่ยังอยู่ในขั้นตอนการวิจัยเป็นสิ่งสำคัญ ผู้แทนกล่าว
Tei-Wei Kuo รักษาการอธิการบดีของมหาวิทยาลัยแห่งชาติไต้หวัน ชี้ให้เห็นถึงอุบัติเหตุที่เป็นที่รู้จักซึ่งเกิดจากยานยนต์ไร้คนขับ ทำให้เกิดการถกเถียงกันว่าใครจะรับผิดชอบ “ปัญหาแบบนั้นจะออกมาเรื่อยๆ” เขาบอกกับที่ประชุม “มีปัญหามากมายที่ต้องแก้ไขก่อนที่เราจะได้รับ AI บนท้องถนน”
แต่จริยธรรมของ AI เกี่ยวข้องกับผู้คนในหลายสาขาวิชา
“เราต้องทำงานในระบบนิเวศ [การวิจัย] ทั้งหมดและดูว่างานวิจัยของเราควรวางตำแหน่งไว้ที่ใด” เขากล่าว
แรงกดดันต่อการใช้อย่างมีจริยธรรมกำลังสร้าง
การวิจัยอย่างมีจริยธรรมไม่ได้เป็นเพียงปัญหาสำหรับมืออาชีพที่ต้องการนำงานวิจัยของตนไปใช้ประโยชน์ แรงกดดันมหาศาลกำลังก่อตัวจากภายนอก รวมทั้งจากนักศึกษาและภาคอุตสาหกรรม
ความเสี่ยงต่อมหาวิทยาลัยต่างๆ ได้รับความสนใจจากการเรียกร้องให้คว่ำบาตรสถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงของเกาหลี (KAIST) ซึ่งตั้งอยู่ในเมืองแทจอน ประเทศเกาหลีใต้ จากการเรียกร้องความร่วมมือในการวิจัยเกี่ยวกับอาวุธอิสระ
คำร้องที่จัดโดย Walsh ในเดือนเมษายนและลงนามโดยนักวิจัย AI มากกว่า 50 คนในกว่า 30 ประเทศกล่าวว่าพวกเขาจะไม่ร่วมมือกับมหาวิทยาลัยหรือเป็นเจ้าภาพอาจารย์ในการเป็นหุ้นส่วนกับ Hanwha Systems ผู้ผลิตด้านการป้องกันเพื่อจัดตั้งศูนย์วิจัยด้านการป้องกันประเทศและ ปัญญาประดิษฐ์ที่มหาวิทยาลัย
การเรียกร้องให้คว่ำบาตรส่งผลกระทบไปทั่วโลกอย่างรวดเร็ว และกลายเป็น “หนึ่งในประเด็นสำคัญของการอภิปรายในสัปดาห์ถัดมาที่องค์การสหประชาชาติเกี่ยวกับสิ่งที่เราต้องทำเกี่ยวกับการกำกับดูแลอาวุธอิสระ” Walsh กล่าว
Sung-Chul Shin ประธาน KAIST กล่าวย้ำในการประชุมว่าสถาบันของเขา “ไม่มีความตั้งใจที่จะพัฒนาอาวุธอัตโนมัติ ศูนย์เน้นการใช้ AI เพื่อการฝึกและติดตามเครื่องบินอัจฉริยะ”
“เราควรนำมาตรฐานสูงสุดมาใช้ในการศึกษาและการวิจัยในมหาวิทยาลัยเพื่อสร้างอนาคตที่สดใส ไม่เช่นนั้นเราจะเผชิญกับด้านมืดของสังคม dystopian ที่เกิดจากผลที่ไม่คาดคิดของเทคโนโลยีประเภทนี้ที่บุกรุกในทุกมิติ – ผู้ชายคนหนึ่ง จิตใจที่ไม่ดีสามารถทำลายโลกทั้งใบได้ในอนาคตอันใกล้” ชินกล่าว เว็บตรง / บาคาร่าเว็บตรง