Root NationArtikelAnalitikEnam perintah kecerdasan buatan

Enam perintah kecerdasan buatan

-

Tahun-tahun berikutnya akan ditandai dengan pesatnya perkembangan teknologi kecerdasan buatan. Mungkin perlu untuk memperkenalkan kerangka kerja yang jelas untuk pembuatan dan penggunaan AI? Apakah pengalaman 6 bulan cukup untuk mengatur teknologi yang bahkan belum keluar dari lab? Pertanyaan ini semakin sering keluar dari mulut para pakar dan jurnalis terkait kecerdasan buatan. Suara dan seruan untuk mengambil tindakan untuk mengatur kecerdasan buatan - baik di tingkat pengguna maupun di tingkat pengembangan proyek - semakin sering terdengar. Sejarah seruan semacam itu dimulai sejak lama.

Kehadiran kecerdasan buatan di mana-mana di ruang digital dan, di atas segalanya, model yang mampu membuat konten yang tidak akan berbeda dari yang dibuat oleh manusia, membangkitkan emosi yang sangat berbeda. Di satu sisi, kami memiliki sekelompok penggemar yang melihat masa depan dalam AI dan, meskipun kemampuannya relatif terbatas (karena AI tidak berpikir, dan seringkali hanya mengambil informasi dari Internet), tidak takut untuk mempercayakannya dengan banyak tugas. . Di sisi lain barikade adalah kelompok yang mengungkapkan skeptisisme dan keprihatinannya tentang tren perkembangan kecerdasan buatan saat ini.

postulat AI

Jembatan antara kedua kelompok tersebut adalah para peneliti kecerdasan buatan, yang, di satu sisi, mengutip banyak contoh bagaimana kecerdasan buatan secara positif memengaruhi realitas di sekitarnya. Pada saat yang sama, mereka memahami bahwa masih terlalu dini untuk berpuas diri, dan lompatan teknologi yang sangat besar membawa banyak tantangan dan tanggung jawab besar. Contoh nyata dari sikap ini adalah kelompok peneliti kecerdasan buatan dan pembelajaran mesin internasional yang dipimpin oleh Dr. Ozlem Garibay dari University of Central Florida. Publikasi setebal 47 halaman, yang ditulis oleh 26 ilmuwan dari seluruh dunia, mengidentifikasi dan menjelaskan enam tantangan yang harus diatasi oleh lembaga penelitian, perusahaan, dan korporasi untuk membuat model mereka (dan perangkat lunak yang menggunakannya) aman.

Ya, ini adalah karya ilmiah yang serius dengan penjelasan penting untuk memahami masa depan kecerdasan buatan. Yang berminat, bisa mandiri baca laporan ilmiah ini dan menarik kesimpulan sendiri. Dengan kata sederhana, para ilmuwan telah mengidentifikasi 6 perintah kecerdasan buatan. Semua pengembangan dan tindakan AI harus sesuai dengannya sehingga aman bagi manusia dan dunia.

postulat AI

Dalam artikel saya, yang ditulis tepat berdasarkan karya ilmiah ini, saya akan mencoba merumuskan postulat utama, undang-undang yang dengannya kecerdasan buatan harus ada dan berkembang. Ya, ini adalah interpretasi saya yang hampir bebas tentang kesimpulan para ilmuwan mengenai pengembangan kecerdasan buatan dan upaya untuk menyajikannya dalam versi alkitabiah. Tapi begitulah cara saya ingin memperkenalkan Anda pada karya ilmiah para ilmuwan yang dihormati ini.

Juga menarik: Membangun AI: Siapa yang Memimpin Perlombaan?

Hukum pertama: Kesejahteraan manusia

Postulat pertama para peneliti adalah memfokuskan pekerjaan kecerdasan buatan pada kesejahteraan manusia. Karena kurangnya "nilai-nilai kemanusiaan, akal sehat, dan etika", kecerdasan buatan dapat bertindak sedemikian rupa sehingga akan menyebabkan penurunan kesejahteraan manusia yang signifikan. Masalah dapat disebabkan oleh kemampuan manusia super AI (misalnya, betapa mudahnya AI mengalahkan manusia - dan tidak hanya dalam permainan catur), tetapi juga fakta bahwa AI tidak berpikir untuk dirinya sendiri, dan karena itu tidak dapat "menyaring" bias atau kesalahan yang jelas.

Postulat AI

- Iklan -

Para peneliti mencatat bahwa kepercayaan berlebihan pada teknologi kecerdasan buatan dapat berdampak negatif pada kesejahteraan manusia. Masyarakat yang memiliki sedikit pemahaman tentang cara kerja algoritme kecerdasan buatan cenderung terlalu mempercayainya, atau, sebaliknya, memiliki sikap negatif terhadap konten yang dihasilkan oleh model tertentu, khususnya chatbots. Mempertimbangkan faktor-faktor ini dan lainnya, tim Garibay menyerukan untuk menempatkan kesejahteraan manusia sebagai pusat interaksi AI-manusia di masa depan.

Baca juga: ChatGPT: panduan pengguna sederhana

Hukum kedua: Tanggung jawab

Akuntabilitas adalah istilah yang terus bermunculan di dunia AI dalam konteks untuk apa kami menggunakan pembelajaran mesin, dan bagaimana tepatnya model dan algoritme AI dikembangkan dan dilatih. Tim internasional menekankan bahwa desain, pengembangan, dan implementasi kecerdasan buatan harus dilakukan secara eksklusif dengan niat baik.

Postulat AI

Menurut pendapat mereka, tanggung jawab harus dipertimbangkan tidak hanya dalam konteks teknis, tetapi juga dalam konteks hukum dan etika. Teknologi harus diperhatikan tidak hanya dari sudut pandang efektivitasnya, tetapi juga dalam konteks penggunaannya.

"Dengan pengenalan teknik pembelajaran mesin canggih, semakin penting untuk memahami bagaimana keputusan dibuat dan siapa yang bertanggung jawab untuk itu” - tulis para peneliti.

Hukum ketiga: Kerahasiaan

Privasi adalah topik yang menjadi bumerang dalam setiap wacana tentang teknologi. Apalagi ketika semuanya dibicarakan di jejaring sosial. Namun, ini sangat penting untuk kecerdasan buatan karena tidak ada tanpa basis data. Dan apa itu database?

Para ilmuwan menggambarkan mereka sebagai "abstraksi dari blok bangunan dasar yang membentuk cara kita melihat dunia." Blok-blok ini biasanya berupa nilai-nilai biasa: warna, bentuk, tekstur, jarak, waktu. Sementara AI sempit berfokus pada satu tujuan, seperti sejauh mana rana terbuka pada intensitas cahaya tertentu, menggunakan data objektif yang tersedia untuk umum, AI dalam aplikasi yang lebih luas (di sini, misalnya, model teks-ke-gambar seperti Midjourney, atau model bahasa seperti ChatGPT ) dapat menggunakan data tentang dan dibuat oleh orang. Artikel dalam pers, buku, ilustrasi, dan foto yang diterbitkan di Internet juga harus disebutkan. Algoritme kecerdasan buatan memiliki akses ke segalanya, karena kami sendiri yang memberikannya kepada mereka. Kalau tidak, dia tidak akan tahu apa-apa dan tidak akan memberikan jawaban atas pertanyaan apa pun.

Postulat AI

Data pengguna pada dasarnya memengaruhi orang-orang tentang siapa data ini dikumpulkan dan orang-orang dalam sistem tempat algoritme kecerdasan buatan akan diterapkan.

Oleh karena itu, tantangan ketiga berkaitan dengan pemahaman yang luas tentang privasi dan penyediaan hak-hak seperti hak untuk tetap sendiri, hak untuk membatasi akses ke diri sendiri, hak atas kerahasiaan kehidupan pribadi atau bisnis, hak untuk mengontrol pribadi. informasi, yaitu hak untuk melindungi kepribadian, individualitas dan martabat seseorang. Semua ini harus ditulis ke dalam algoritme, jika tidak privasi tidak akan ada, dan algoritme AI dapat digunakan dalam skema penipuan serta tindak pidana.

Baca juga: 7 Cara Paling Keren Menggunakan ChatGPT

Hukum keempat: Struktur proyek

Kecerdasan buatan bisa sangat sederhana dan bertujuan tunggal, tetapi dalam kasus model yang lebih besar dengan sifat luas dan multitugas, masalahnya bukan hanya privasi data, tetapi juga struktur desain.

Misalnya, GPT-4, model kecerdasan buatan OpenAI terbaru, terlepas dari ukuran dan dampaknya pada dunia AI (dan seterusnya), tidak memiliki dokumentasi publik sepenuhnya. Artinya, kami tidak memiliki pemahaman tentang apa tujuan akhir para pengembang, apa yang ingin mereka dapatkan di hasil akhir. Oleh karena itu, kami tidak dapat sepenuhnya menilai risiko yang terkait dengan penggunaan model AI ini. GPT-3, di sisi lain, dilatih berdasarkan data dari forum 4chan, adalah model yang pasti tidak ingin Anda gunakan untuk berinteraksi. Forum 4chan adalah salah satu fenomena paling menarik di Internet. Ini adalah contoh anarki absolut dan total, yang dalam praktiknya tidak dibatasi oleh kerangka apa pun. Di sinilah grup peretasan seperti Anonymous atau LulzSec dibuat. Ini adalah sumber dari banyak meme paling populer, tempat untuk mendiskusikan topik kontroversial dan menerbitkan opini yang lebih kontroversial. Meskipun papan gambar berbahasa Inggris mencatat bahwa "sejauh ini legal", hal ini agak dipertanyakan, mengingat bahwa 4chan terkadang terlibat dengan media, termasuk konten rasis, Nazi, dan seksis.

Postulat AI

- Iklan -

Tim Profesor Garibay ingin setiap model kecerdasan buatan bekerja dalam kerangka kerja yang jelas. Bukan hanya karena kesejahteraan orang yang berinteraksi dengan AI, tetapi juga karena kemampuan untuk menilai risiko yang terkait dengan penggunaan model. Struktur proyek apa pun harus mencakup penghormatan terhadap kebutuhan, nilai, dan keinginan kelompok budaya dan pemangku kepentingan yang berbeda. Proses pembuatan, pelatihan, dan penyempurnaan AI harus difokuskan pada kesejahteraan manusia, dan produk akhir – model AI – harus difokuskan pada peningkatan dan peningkatan produktivitas komunitas manusia itu sendiri. Model di mana risiko tidak dapat diidentifikasi harus memiliki akses terbatas atau terkontrol. Mereka seharusnya tidak menjadi ancaman bagi umat manusia, tetapi sebaliknya berkontribusi pada perkembangan manusia dan masyarakat secara keseluruhan.

Baca juga: Twitter di tangan Elon Musk - ancaman atau "perbaikan"?

Hukum Kelima: Pemerintahan dan Pengawasan Independen

Algoritme kecerdasan buatan benar-benar mengubah dunia hanya dalam satu tahun. Bard oleh Google dan Bing ditayangkan perdana oleh Microsoft berdampak signifikan terhadap saham kedua raksasa tersebut di bursa. Omong-omong, mereka berkontribusi terhadap pertumbuhan saham perusahaan-perusahaan ini bahkan dengan latar belakang saham Apple. ChatGPT mulai aktif digunakan oleh siswa sekolah, mereka berkomunikasi dengannya, memeriksanya, dan mengajukan pertanyaan. Yang paling penting adalah dia memiliki kemampuan untuk belajar sendiri, memperbaiki kesalahannya. Kecerdasan buatan bahkan mulai bekerja di pemerintahan beberapa negara. Ini adalah kasus Perdana Menteri Rumania, Nicolae Chuca menyewa virtual seorang asisten yang akan memberitahunya tentang kebutuhan masyarakat. Artinya, kecerdasan buatan memainkan peran yang semakin penting dalam kehidupan kita.

AI

Mengingat saling ketergantungan yang semakin meningkat antara kecerdasan buatan, manusia, dan lingkungan, para ilmuwan menganggap perlu untuk membuat badan pengatur dan pengawasan independen terhadap perkembangannya. Badan-badan ini akan mengontrol seluruh siklus hidup kecerdasan buatan: dari ide hingga pengembangan dan implementasi. Pihak berwenang akan dengan tepat mendefinisikan model AI yang berbeda dan mempertimbangkan kasus yang berkaitan dengan kecerdasan buatan dan subjek kehidupan sosial. Artinya, kecerdasan buatan bisa menjadi subjek kasus pengadilan, serta tuntutan hukum. Meskipun, tentu saja, bukan dia secara pribadi, tetapi pengembangnya.

Baca juga: Semua Tentang Neuralink: Awal Kegilaan Cyberpunk?

Hukum keenam: Interaksi manusia dan kecerdasan buatan

Dalam program kecerdasan buatan, setiap orang dapat menemukan sesuatu untuk dirinya sendiri: menghasilkan teks, mendeteksi konten dalam gambar, menjawab pertanyaan, membuat gambar, mengenali orang dalam foto, menganalisis data. Berbagai kegunaan ini tidak hanya menjadi perhatian bagi orang yang mencoba menyesuaikan kecerdasan buatan dengan standar hukum dan etika. Banyak yang takut tergusur dari pasar tenaga kerja oleh model AI. Karena algoritme kecerdasan buatan akan dapat melakukan hal yang sama lebih cepat, lebih murah, dan bahkan mungkin lebih baik daripada manusia. Pada saat yang sama, ada orang yang mengandalkan AI dalam pekerjaannya, yaitu kecerdasan buatan sudah menjadi asisten yang sangat diperlukan bagi mereka saat ini.

AI

Namun dari penelitian yang dirujuk oleh para ilmuwan, jelas bahwa penggantian manusia dengan tenaga kerja buatan yang murah masih cukup jauh. Meskipun demikian, mereka sudah menekankan perlunya membangun hierarki interaksi yang ketat antara manusia dan kecerdasan buatan. Menurut mereka, manusia harus ditempatkan di atas kecerdasan buatan. Kecerdasan buatan harus dibuat dengan memperhatikan kemampuan kognitif seseorang, dengan mempertimbangkan emosi, interaksi sosial, ide, perencanaan, dan interaksinya dengan objek. Artinya, dalam semua situasi, oranglah yang harus berdiri di atas kecerdasan buatan, mengontrol perilaku dan konten yang dibuat oleh model, dan bertanggung jawab untuk itu. Dengan kata sederhana, bahkan AI tercanggih pun harus mematuhi seseorang dan tidak melampaui apa yang diperbolehkan, agar tidak merugikan penciptanya.

Baca juga: Bagaimana Ukraina menggunakan dan mengadaptasi Starlink selama masa perang

овки

Ya, seseorang akan mengatakan bahwa para ilmuwan tidak menunjukkan sesuatu yang penting dan baru dalam laporan mereka. Semua orang telah membicarakan hal ini sejak lama. Tapi sekarang perlu menempatkan AI dalam beberapa kerangka hukum. Meraih GPT-4 seperti meraih pisau secara membabi buta. Mereka menyembunyikan informasi penting dari kami. Semua perkembangan kecerdasan buatan, dan khususnya proyek ChatGPT dari Open AI, sering kali mengingatkan saya pada membesarkan anak kecil. Terkadang sepertinya ini adalah anak yang berasal dari alien. Ya, alien, tapi dia masih anak-anak yang belajar, membuat kesalahan, terkadang berperilaku tidak pantas, mudah tersinggung, berdebat dengan orang tuanya. Meskipun tumbuh dan berkembang sangat cepat.

AI

Umat ​​manusia mungkin tidak mengikuti perkembangannya, dan segala sesuatunya mungkin lepas kendali. Oleh karena itu, umat manusia sudah perlu memahami mengapa kita mengembangkan semua ini, mengetahui tujuan akhir, menjadi "orang tua yang bertanggung jawab", karena jika tidak, "anak" dapat dengan mudah menghancurkan "orang tuanya".

Baca juga: 

Yuri Svitlyk
Yuri Svitlyk
Putra Pegunungan Carpathian, jenius matematika yang tidak dikenal, "pengacara"Microsoft, altruis praktis, kiri-kanan
- Iklan -
Daftar
Beritahu tentang
tamu

0 komentar
Ulasan Tertanam
Lihat semua komentar