ข่าวต่างประเทศ

กลุ่มประเทศ G7 เรียกร้องให้นำมาตรฐานทางเทคนิคระหว่างประเทศมาใช้สำหรับปัญญาประดิษฐ์ (AI)

Digital and technology ministers attend a photo session during the G7 Digital and Tech Ministers’ Meeting in Takasaki, Gunma Prefecture, Japan, on April 29, 2023, in this photo taken by Kyodo. Mandatory credit Kyodo via REUTERS

 ณ กรุงโตเกียว ผู้นำกลุ่มประเทศ G7 เรียกร้องให้มีการพัฒนาและนำมาตรฐาน ทางเทคนิคระหว่างประเทศมาใช้เพื่อให้ปัญญาประดิษฐ์ (AI) น่าเชื่อถือ ดังที่ฝ่ายนิติบัญญัติในประเทศที่ร่ำรวยต่างให้ความสำคัญกับเทคโนโลยีสมัยใหม่
                    ขณะที่ผู้นำกลุ่มประเทศ G7 ซึ่งเข้าประชุมร่วมกันที่เมืองฮิโรชิมะ ประเทศญี่ปุ่น ต่างตระหนักว่า กระบวนการที่จะบรรลุ “วิสัยทัศน์และเป้าหมายร่วมกันของ AI ที่น่าเชื่อถืออาจจะมีความแตกต่างกันไป” พวกเขากล่าวในแถลงการณ์ว่า “การบริหารจัดการเศรษฐกิจดิจิทัลควรปรับให้ทันสมัยอย่างต่อเนื่อง ให้สอดคล้องกับค่านิยมเชิงประชาธิปไตยที่เราใช้ร่วมกัน”
                   ข้อตกลงดังกล่าวเกิดขึ้นหลังจากสหภาพยุโรปซึ่งเข้าร่วมการประชุม G7 กำลังจะผ่าน กฎหมายควบคุมเทคโนโลยี AI ในเดือนนี้ ซึ่งอาจจะเป็นกฎหมาย AI ที่ครอบคลุมฉบับแรก
ของโลก นางเออร์ซูลา ฟอน แดร์ เลเยน (Ursula von der Leyen) ประธานคณะกรรมาธิการยุโรป กล่าวเมื่อวันศุกร์ที่ผ่านมาว่า (19 พ.ค. 66) “เราต้องการให้ระบบปัญญาประดิษฐ์ (AI) มีความแม่นยำ เชื่อถือได้ ปลอดภัย และไม่เลือกปฏิบัติ โดยไม่คำนึงถึงแหล่งที่มา
                   ผู้นำกลุ่มประเทศ G7 ได้อ้างถึงปัญญาประดิษฐ์แบบรู้สร้าง (generative AI)  ซึ่งเป็นส่วนย่อยของเทคโนโลยีที่ได้รับความนิยมจากแอปพลิเคชันแชตจีพีที (ChatGPT) ว่าพวกเรา “จำเป็นต้องรีบฉวยโอกาสและความท้าทายของ generative AI ทันที”
                   เมื่อวันศุกร์ที่ผ่านมา (17 พ.ค. 66) ผู้นำรัฐบาลประเทศต่าง ๆ เห็นพ้องกันว่าภายในสิ้นปีนี้จะให้มีการจัดการประชุมระดับรัฐมนตรีในชื่อว่า “Hiroshima AI Process” เพื่อหารือในประเด็นเกี่ยวกับการใช้ปัญญาประดิษฐ์ ได้แก่ เรื่องสิทธิต่อทรัพย์สินทางปัญญา และข้อมูลอันเป็นเท็จ
                    การประชุมสุดยอดโดยรัฐมนตรีด้านดิจิทัลของกลุ่มประเทศ G7 เมื่อเดือนที่แล้ว (เดือนเมษายน) มีประเทศสมาชิกเข้าร่วมประชุม ได้แก่ สหรัฐฯ ญี่ปุ่น เยอรมนี อังกฤษ ฝรั่งเศส อิตาลี และแคนาดา ได้กล่าวว่า พวกเขาควรนำกฎระเบียบ AI ที่ “อิงตามความเสี่ยง” มาใช้