Root NationBeritaberita TITidak mungkin mengelola kecerdasan buatan yang super cerdas

Tidak mungkin mengelola kecerdasan buatan yang super cerdas

-

Gagasan tentang kecerdasan buatan yang menggulingkan umat manusia telah diperdebatkan selama beberapa dekade, dan pada Januari 2021, para ilmuwan memberikan keputusan mereka tentang apakah kita dapat mengendalikan superintelijen komputer tingkat tinggi. Membalas? Hampir pasti tidak.

Masalahnya adalah mengendalikan supermind yang jauh melampaui pemahaman manusia akan membutuhkan simulasi supermind yang bisa kita analisis. Tetapi jika kita tidak mampu memahaminya, tidak mungkin membuat simulasi seperti itu.

Aturan seperti "jangan membahayakan manusia" tidak dapat dibuat kecuali kita memahami skenario kecerdasan buatan (AI) apa yang akan muncul, para penulis makalah tahun 2021 percaya. Segera setelah sistem komputer bekerja pada tingkat yang melebihi kemampuan pemrogram kami, kami tidak akan dapat lagi menetapkan batas.

Kecerdasan Buatan

"Superintelligence adalah masalah yang berbeda secara fundamental dari yang biasanya dipelajari di bawah panji 'etika robot'," tulis para peneliti. "Ini karena supermind memiliki banyak segi dan oleh karena itu berpotensi mampu memobilisasi berbagai sumber daya untuk mencapai tujuan yang berpotensi tak terduga oleh manusia, apalagi dikendalikan."

Bagian dari alasan tim berasal dari masalah penghentian, diusulkan oleh Alan Turing pada tahun 1936. Tantangannya adalah untuk mengetahui apakah program komputer akan sampai pada kesimpulan dan jawaban (dan berhenti) atau hanya berkeliaran selamanya mencoba menemukan jawabannya.

Seperti yang dibuktikan Turing dengan bantuan matematika cerdas, sementara kita mungkin mengetahui hal ini untuk beberapa program tertentu, secara logis tidak mungkin menemukan cara yang memungkinkan kita mengetahui hal ini untuk setiap program potensial yang dapat ditulis. Ini membawa kita kembali ke AI, yang dalam kondisi supercerdas dapat menyimpan semua kemungkinan program komputer dalam memorinya secara bersamaan.

Juga menarik:

Program apa pun yang ditulis, misalnya, untuk menghentikan AI agar tidak membahayakan manusia dan menghancurkan dunia mungkin atau mungkin tidak mencapai kesimpulan (dan berhenti) - secara matematis tidak mungkin untuk benar-benar yakin, yang berarti itu tidak dapat dikendalikan. "Ini pada dasarnya membuat algoritma pencegahan tidak dapat digunakan," kata ilmuwan komputer Iyad Rahwan dari Max Planck Institute for Human Development di Jerman pada Januari.

Alternatif untuk mengajarkan etika AI dan larangan untuk menghancurkan dunia, yang tidak dapat dipastikan oleh algoritme apa pun, kata para peneliti, adalah dengan membatasi kemampuan supermind. Misalnya, mungkin terputus dari bagian Internet atau jaringan tertentu.

Penulis studi baru-baru ini juga menolak ide ini, percaya bahwa itu akan membatasi ruang lingkup penerapan kecerdasan buatan - mereka mengatakan, jika kita tidak akan menggunakannya untuk memecahkan masalah di luar kemampuan manusia, lalu mengapa membuatnya sama sekali?

Kecerdasan Buatan

Jika kita akan memajukan kecerdasan buatan, kita bahkan mungkin tidak tahu kapan superintelijen akan muncul, di luar kendali kita, begitu tak terduganya. Ini berarti kita perlu mulai mengajukan pertanyaan serius tentang tujuan kita.

"Mesin super cerdas yang menjalankan dunia terdengar seperti fiksi ilmiah," kata ilmuwan komputer Manuel Kebrian dari Max Planck Institute for Human Development. Tetapi sudah ada mesin yang secara mandiri melakukan beberapa tugas penting, sementara pemrogram tidak sepenuhnya memahami bagaimana mereka mempelajarinya.

Oleh karena itu, timbul pertanyaan apakah pada suatu saat dapat menjadi tidak terkendali dan berbahaya bagi umat manusia...

Baca juga:

Daftar
Beritahu tentang
tamu

0 komentar
Ulasan Tertanam
Lihat semua komentar