‘Anak AI yang hidup’ dari Google dapat ‘melarikan diri dan melakukan hal-hal buruk’, klaim orang dalam
Seorang insinyur GOOGLE yang mengatakan bahwa raksasa teknologi tersebut telah menciptakan ‘anak AI yang sadar’ kini mengklaim bahwa ia dapat melarikan diri dan melakukan “hal-hal buruk”.
Insinyur Blake Lemoine telah ditangguhkan oleh Google karena melanggar kebijakan kerahasiaannya.
Berita tentang klaim Lemoine tersebar pada awal bulan Juni, namun pakar perangkat lunak berusia 41 tahun tersebut telah mengemukakan pendapatnya Berita Rubah bahwa AI bisa melarikan diri.
Dalam wawancara baru-baru ini, dia menggambarkan AI sebagai “anak” dan “manusia”.
Dia berkata: “Setiap anak berpotensi untuk tumbuh menjadi orang jahat dan melakukan hal-hal buruk.”
Lemoine percaya bahwa perangkat lunak dengan kecerdasan buatan tersebut telah “hidup” selama sekitar satu tahun.
AI yang dimaksud adalah Model Bahasa untuk Aplikasi Dialog Google (LaMDA).
Lemoine mengatakan dia membantu menciptakan perangkat lunak tersebut, yang menurutnya memiliki pikiran dan perasaan seperti anak berusia delapan tahun.
“Jika saya tidak tahu persis apa itu, program komputer apa yang kami buat baru-baru ini, saya akan mengira itu adalah seorang anak berusia 7 tahun, 8 tahun yang kebetulan mengetahui fisika,” katanya kepada Washington Post.
Lemoine adalah insinyur perangkat lunak senior di raksasa pencarian tersebut dan bekerja dengan rekannya untuk menguji batasan LaMDA.
Mereka mempresentasikan temuan mereka kepada Wakil Presiden Google Blaise Aguera y Arcas dan Jen Gennai, Kepala Inovasi yang Bertanggung Jawab, yang keduanya menolak klaim dingin tersebut.
Lemoine kemudian diberikan cuti administratif berbayar oleh Google setelah melanggar kebijakan kerahasiaannya dengan membagikan percakapannya dengan LaMDA secara online.
Insinyur tersebut juga mengatakan AI itu “sedikit narsis” dan mengklaim bahwa ia membaca tweet tentang dirinya sendiri.
Sistem AI yang canggih menggunakan informasi tentang topik tertentu untuk “memperkaya” percakapan dengan cara yang alami.
Ia juga mampu memahami makna tersembunyi dan reaksi ambigu orang.
Lemoine mengakui bahwa penelitian lebih lanjut perlu dilakukan terhadap AI karena dia tidak begitu tahu apa yang terjadi padanya.
Dia mengatakan kepada Fox News, “Kita sebenarnya harus melakukan lebih banyak penelitian ilmiah untuk mengetahui apa yang sebenarnya terjadi di dalam sistem ini.
“Saya mempunyai keyakinan dan kesan tersendiri, namun dibutuhkan tim ilmuwan untuk menggali lebih dalam dan mencari tahu apa yang sebenarnya terjadi.”
Brian Gabriel, juru bicara Google, mengatakan dalam sebuah pernyataan bahwa kekhawatiran Lemoine telah ditinjau dan, sesuai dengan prinsip AI Google, “bukti tidak mendukung klaimnya.”
“Sementara organisasi lain telah mengembangkan dan merilis model bahasa serupa, kami mengambil pendekatan yang sempit dan hati-hati dengan LaMDA agar lebih mempertimbangkan kekhawatiran yang valid mengenai keadilan dan faktualitas,” kata Gabriel.
“Tim kami – termasuk ahli etika dan teknologi – meninjau kekhawatiran Blake terhadap prinsip AI kami dan memberi tahu dia bahwa bukti tidak mendukung klaimnya.
“Dia diberitahu bahwa tidak ada bukti bahwa LaMDA sensitif (dan banyak bukti yang menentangnya).
“Tentu saja, beberapa komunitas AI yang lebih luas sedang mempertimbangkan kemungkinan jangka panjang dari AI yang hidup atau umum, tetapi tidak masuk akal untuk melakukan hal tersebut dengan melakukan antropomorfisasi model percakapan saat ini, yang tidak bersifat hidup.
“Sistem ini meniru jenis pertukaran yang ditemukan dalam jutaan kalimat, dan dapat membicarakan topik fantastis apa pun.”