Kategori: berita TI

Microsoft mengumumkan solusi AI pelindung berdasarkan GPT-4 Security Copilot

Sistem kecerdasan buatan (AI) sudah digunakan untuk membuat grafik, chatbot, dan bahkan mengendalikan rumah pintar. Perusahaan Microsoft mempercayakan AI pada salah satu bidang terpenting dalam kehidupan modern – perlindungan terhadap ancaman dunia maya. Alat Security Copilot memungkinkan Anda mengenali serangan dunia maya meskipun tidak ada tanda-tanda yang jelas dan membantu menghilangkannya.

Dalam situasi di mana keamanan komputer Anda terganggu karena beberapa alasan, Security Copilot akan membantu Anda menentukan apa yang terjadi, apa yang harus dilakukan, dan bagaimana mencegah insiden serupa terjadi pada orang lain. Perusahaan memperkenalkan solusi baru berdasarkan model GPT-4 - Security Copilot membantu klien korporat menghadapi ancaman.

Sejauh ini, alat tersebut hanya tersedia untuk pelanggan korporat. Model bahasa besar yang sama yang mendukung aplikasi seperti Bing Chat berada di balik Security Copilot. Namun, dalam hal ini kita berbicara tentang opsi yang dilatih secara khusus tentang materi dan terminologi yang digunakan oleh para profesional TI. Selain itu, Microsoft telah mengintegrasikan Copilot dengan alat keamanan lainnya. Perusahaan berjanji bahwa seiring waktu akan dapat menggunakan solusi perangkat lunak pihak ketiga.

Meskipun sebagian besar aplikasi khusus berbasis GPT-4 dilatih menggunakan kumpulan data yang sudah ketinggalan zaman, Security Copilot memperoleh wawasan baru secara real-time dengan mempelajari triliunan sinyal ancaman yang Microsoft menerima setiap hari. Inilah kelebihan model ini - Security Copilot dapat mengenali sinyal tersembunyi bahkan sebelum fakta serangan menjadi jelas. Berkat ini, alat ini dapat digunakan untuk mengenali dan menghilangkan ancaman secara tepat waktu.

Pada saat yang sama, beberapa waktu lalu menjadi jelas bahwa AI seperti ChatGPT, Bing Chat, atau Google Bard dapat mengalami "halusinasi" di mana fakta yang sama sekali tidak dapat diandalkan digunakan sebagai dasar untuk "penalaran". Di bidang keamanan, hal ini bisa menjadi fenomena yang sangat berbahaya. DI DALAM Microsoft telah mengonfirmasi bahwa Security Copilot "tidak selalu menyelesaikan masalah dengan benar". Untungnya, dalam hal produk Microsoft mekanisme umpan balik pengguna disediakan untuk memberikan jawaban yang semakin relevan.

Belum Microsoft tidak melaporkan apa yang mungkin terjadi ketika AI defensif bertabrakan dengan AI jahat, seperti AI yang dirancang untuk menyerang pengguna dan bisnis. Bagaimanapun, perusahaan mengatakan bahwa pelanggan perusahaan sudah dapat menguji Security Copilot pada segmen kecil penggunanya. Jika eksperimen ini berhasil, kemungkinan besar eksperimen tersebut dapat membantu pengguna biasa di masa mendatang.

Juga menarik:

Share
Julia Alexandrova

tukang kopi. Juru potret. Saya menulis tentang sains dan luar angkasa. Saya pikir itu terlalu dini bagi kita untuk bertemu alien. Saya mengikuti perkembangan robotika, untuk jaga-jaga...

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai*