Para pemimpin dunia dan bapak AI mendorong PBB untuk menetapkan garis merah global untuk penggunaan AI yang berbahaya pada tahun 2026

Para pemimpin dunia dan bapak AI mendorong PBB untuk menetapkan garis merah global untuk penggunaan AI yang berbahaya pada tahun 2026

Para pemimpin dunia dan bapak AI mendorong PBB untuk menetapkan garis merah global untuk penggunaan AI yang berbahaya pada tahun 2026

Liga335 – Pekan Tingkat Tinggi tahunan Majelis Umum Perserikatan Bangsa-Bangsa (PBB) dimulai di New York dengan permintaan mendesak untuk aturan yang mengikat untuk mengatur kecerdasan buatan (artificial intelligence/AI). Sebuah koalisi yang terdiri dari lebih dari 200 tokoh terkemuka – di antaranya adalah para peraih Nobel, mantan kepala negara, dan peneliti AI terkemuka – merilis sebuah deklarasi bersama yang diberi judul Seruan Global untuk Garis Merah AI.
Surat tersebut, yang diluncurkan oleh pemenang Hadiah Nobel Perdamaian Maria Ressa, memperingatkan bahwa AI berkembang dengan cara yang dapat membuat masyarakat terpapar pada “bahaya yang belum pernah terjadi sebelumnya.”

Ressa mendesak pemerintah untuk bekerja menuju perjanjian internasional yang dapat ditegakkan yang akan menetapkan “garis merah yang jelas dan dapat diverifikasi” tentang bagaimana teknologi ini dapat dan tidak dapat digunakan. Seruan ini juga menetapkan tenggat waktu, meminta para pemimpin dunia untuk bertindak sebelum akhir tahun 2026 untuk mencegah “risiko yang tidak dapat diterima secara universal” dan menetapkan apa yang “tidak boleh dilakukan oleh AI.”
Ini adalah pertama kalinya para pemenang Hadiah Nobel dari berbagai disiplin ilmu bergabung untuk menyuarakan hal ini.

Daftar penandatangan termasuk ahli biokimia Jennifer Doudna, ekonom Daron Acemoglu, dan fisikawan Giorgio Parisi, di samping pionir AI Geoffrey Hinton dan Yoshua Bengio, yang sering dianggap sebagai bapak pembelajaran mesin modern. Dukungan juga datang dari masyarakat sipil, dengan lebih dari 60 organisasi-termasuk lembaga think tank Demos yang berbasis di Inggris dan Institut Keamanan dan Tata Kelola AI di Beijing-mendukung seruan tersebut.
Para penulis dan pemikir publik juga telah menyumbangkan suara mereka.

Penulis Yuval Noah Harari, yang turut menandatangani surat tersebut, mengatakan: “Selama ribuan tahun, manusia telah belajar, terkadang dengan cara yang sulit, bahwa teknologi yang kuat dapat memiliki konsekuensi yang berbahaya dan juga menguntungkan. Manusia harus menyepakati garis merah yang jelas untuk AI sebelum teknologi ini membentuk kembali masyarakat di luar pemahaman kita dan menghancurkan dasar-dasar kemanusiaan kita.”
Kekhawatiran akan penyalahgunaan AI telah meningkat dalam beberapa tahun terakhir, dipicu oleh kasus-kasus pengawasan massal, kampanye disinformasi, dan bahkan laporan yang mengaitkan AI dengan insiden tragis seperti bunuh diri.

Para ahli memperingatkan bahwa risiko di masa depan mungkin akan lebih besar, mulai dari pengangguran berskala besar hingga pandemi yang direkayasa dan pelanggaran hak asasi manusia yang sistematis.
Di antara para pemimpin politik yang mendukung inisiatif ini adalah mantan presiden Irlandia Mary Robinson dan mantan presiden Kolombia yang meraih Nobel Perdamaian, Juan Manuel Santos. Kampanye ini dikoordinasikan oleh University of California, Berkeley’s Center for Human-Compatible AI, The Future Society, dan Pusat Keamanan AI Prancis.

Meskipun pernyataan tersebut tidak menetapkan langkah-langkah kebijakan yang spesifik, pernyataan tersebut menyoroti area-area yang dapat dipertimbangkan untuk dilarang. Ini termasuk melarang senjata otonom yang mematikan, mencegah sistem AI mereplikasi dirinya sendiri, dan melarang penggunaannya dalam perang nuklir. Ahmet zmc, mantan kepala Organisasi Pelarangan Senjata Kimia, menekankan: “Adalah kepentingan bersama yang sangat penting untuk mencegah AI menimbulkan kerusakan serius dan berpotensi tidak dapat dipulihkan bagi umat manusia, dan kita harus bertindak sesuai dengan itu.”

Para penandatangan menunjukkan contoh-contoh historis-seperti perjanjian yang melarang senjata biologis dan upaya untuk menghapus zat perusak ozon-sebagai bukti bahwa kerja sama internasional mengenai risiko teknologi adalah mungkin. Namun, mereka juga memperingatkan bahwa janji sukarela dari perusahaan-perusahaan AI tidaklah cukup, dengan mencatat penelitian yang menunjukkan bahwa banyak dari komitmen tersebut yang tidak diimplementasikan sepenuhnya.
Peringatan tentang risiko eksistensial AI bukanlah hal baru.

Pada tahun 2023, para pemimpin teknologi termasuk Elon Musk mendesak penghentian sementara proyek-proyek AI tingkat lanjut, sementara para kepala laboratorium mengeluarkan pernyataan yang menyamakan bahaya AI dengan bahaya perang nuklir dan pandemi. Meskipun para pemimpin industri seperti Sam Altman dari OpenAI, Dario Amodei dari Anthropic, dan Demis Hassabis dari Google DeepMind tidak termasuk dalam imbauan terbaru ini, tokoh-tokoh senior lainnya dari organisasi mereka, termasuk salah satu pendiri OpenAI, Wojciech Zaremba, dan mantan peneliti DeepMind, Ian Goodfellow, termasuk di antara mereka yang menyerukan garis merah.

– Berakhir

Leave a Reply

Your email address will not be published. Required fields are marked *