Pakar kecerdasan buatan cenderung mengikuti salah satu dari dua aliran pemikiran: itu akan sangat meningkatkan kehidupan kita, atau itu akan menghancurkan kita semua. Dan itulah mengapa debat Parlemen Eropa tentang regulasi teknologi menjadi sangat penting. Tapi bagaimana kecerdasan buatan bisa aman? Ini adalah lima tantangan di hadapan kita.
Daftar isi:
Setuju apa itu AI “Agreeing what artificial intelligence is“
Parlemen Eropa membutuhkan waktu dua tahun untuk menghasilkan definisi sistem kecerdasan buatan – perangkat lunak yang “dapat menghasilkan, untuk tujuan yang ditentukan manusia, hasil seperti konten, prediksi, rekomendasi, atau keputusan yang memengaruhi lingkungan tempat mereka berinteraksi.
Beberapa orang percaya bahwa AI hanyalah alat dan terserah manusia untuk menggunakannya dengan aman. Akan tetapi pihak lain percaya bahwa AI adalah bentuk kecerdasan baru dan dapat menimbulkan ancaman bagi umat manusia. Kemudian sebagian lain percaya bahwa kecerdasan buatan ada di antara keduanya dan penting untuk mengembangkan langkah-langkah keamanan untuk mengurangi risiko, tetapi tetap mengizinkan penggunaan kecerdasan buatan dengan manfaat potensialnya.
Tantangan untuk mencapai pemahaman umum tentang apa itu AI dan apa artinya “aman” semakin diperumit oleh fakta bahwa AI adalah teknologi yang berkembang pesat. Ketika sistem kecerdasan buatan berkembang, semakin sulit untuk memprediksi bagaimana mereka akan berperilaku. Hal ini menyulitkan untuk mengembangkan langkah-langkah keamanan yang dapat mengantisipasi semua risiko yang mungkin terjadi.
Berikut adalah beberapa hal yang dapat dilakukan untuk menyepakati apa itu AI dan apa artinya AI “aman”:
- Kembangkan pemahaman bersama tentang AI. Hal ini dapat dilakukan dengan mengembangkan definisi umum AI, dan dengan mendiskusikan potensi risiko dan manfaat AI.
- Buat kerangka kerja global untuk mengatur AI. Kerangka kerja ini dapat mencakup pedoman untuk mengembangkan dan menggunakan sistem AI, serta mekanisme untuk meminta pertanggungjawaban pengembang atas keamanan sistem mereka.
- Investasikan dalam penelitian tentang keamanan AI. Penelitian ini dapat berfokus pada pengembangan teknik baru untuk mencegah sistem AI membuat kesalahan, dan untuk memastikan bahwa sistem AI berperilaku aman dan bertanggung jawab.
Dengan mengambil langkah-langkah ini, kami dapat membantu memastikan bahwa AI digunakan dengan aman dan bertanggung jawab, dan dapat menjadi kekuatan untuk kebaikan di dunia.
Baca juga: 10 VPN Terbaik Tahun 2024
Mencapai kesepakatan global ” Reaching global agreement “
Mencapai kesepakatan global tentang kecerdasan buatan adalah tugas yang sulit tetapi perlu jika kita ingin memastikan bahwa kecerdasan buatan digunakan dengan aman dan bertanggung jawab. Ada beberapa faktor yang mempersulit tercapainya kesepakatan global tentang kecerdasan buatan (AI), antara lain:
- Perspektif lain. Negara dan organisasi yang berbeda memiliki pandangan yang berbeda tentang kecerdasan buatan dan apa yang mereka yakini sebagai risiko dan manfaat utama. Misalnya, beberapa negara mungkin lebih khawatir tentang kemungkinan AI digunakan untuk tujuan militer, sementara yang lain mungkin lebih khawatir tentang kemungkinan AI dapat menyebabkan hilangnya pekerjaan.
- Tahap perkembangan yang berbeda. Tidak semua negara memiliki tingkat perkembangan yang sama dalam hal kecerdasan buatan. Beberapa negara telah mengembangkan sistem AI canggih sementara yang lain masih dalam tahap pengembangan. Hal ini dapat mempersulit untuk menyepakati standar dan peraturan umum.
- ketidakpercayaan Di beberapa negara, kepercayaan terhadap kecerdasan buatan masih kurang. Hal ini disebabkan sejumlah faktor, termasuk masalah keamanan nasional, persaingan ekonomi, dan kemungkinan penggunaan AI yang berbahaya.
Terlepas dari tantangannya, ada beberapa hal yang dapat dilakukan untuk membantu mencapai kesepakatan global tentang AI. Ini termasuk:
- Membangun kepercayaan. Penting untuk membangun kepercayaan antar negara dan organisasi sehingga mereka lebih mau bekerja sama dalam AI. Ini dapat dilakukan dengan berbagi informasi, berkolaborasi dalam penelitian, dan mengembangkan standar dan peraturan bersama.
- Memberikan kepemimpinan. Beberapa negara dan organisasi perlu memimpin dalam mempromosikan kerja sama global di bidang AI. Ini dapat dilakukan dengan menyelenggarakan konferensi, menerbitkan laporan, dan mengembangkan proposal untuk standar dan peraturan global.
- Mendorong dialog. Penting untuk mendorong dialog antara negara dan organisasi sehingga mereka dapat mendiskusikan perspektif dan keprihatinan mereka yang berbeda. Ini dapat dilakukan melalui pertemuan informal, lokakarya, dan forum online.
Dengan mengambil langkah-langkah ini, kami dapat membantu mencapai kesepakatan global tentang AI dan memastikan bahwa teknologi canggih ini digunakan dengan aman dan bertanggung jawab.
Memastikan kepercayaan publik ” Ensuring public trust”
Jika orang tidak mempercayai AI, mereka cenderung tidak akan menggunakannya, yang akan membatasi manfaat potensialnya. Artinya, penting untuk membangun kepercayaan pada AI, dan untuk mengatasi kekhawatiran apa pun yang mungkin dimiliki orang tentang keamanannya.
Memastikan kepercayaan publik terhadap AI sangat penting untuk adopsi dan penggunaannya secara luas. Berikut adalah beberapa cara untuk membangun kepercayaan pada AI:
- Transparansi: Orang harus dapat memahami cara kerja AI dan cara penggunaannya. Ini berarti transparan tentang data yang digunakan untuk melatih model AI, algoritme yang digunakan untuk membuat keputusan, dan hasil dari keputusan tersebut.
- Akuntabilitas: Orang-orang perlu mengetahui bahwa ada konsekuensi bagi sistem AI yang membuat kesalahan atau menyebabkan bahaya. Ini berarti memiliki aturan dan regulasi yang jelas yang mengatur pengembangan dan penggunaan AI, dan memiliki mekanisme untuk meminta pertanggungjawaban orang atas tindakan mereka.
- Keadilan: Orang harus yakin bahwa sistem AI akan memperlakukan mereka dengan adil, terlepas dari ras, jenis kelamin, agama, atau karakteristik pribadi lainnya. Ini berarti memastikan bahwa sistem AI tidak bias dalam pengambilan keputusannya.
- Keamanan: Orang-orang harus yakin bahwa data mereka aman dan terlindungi saat digunakan untuk melatih model AI. Ini berarti menggunakan enkripsi yang kuat dan tindakan keamanan lainnya untuk melindungi data.
Berikut adalah beberapa tips tambahan untuk membangun kepercayaan pada AI:
Mendidik publik tentang AI : Orang-orang perlu dididik tentang AI serta potensi manfaat dan risikonya. Hal ini dapat dilakukan melalui kampanye kesadaran publik, program pendidikan, dan inisiatif lainnya.
Libatkan publik dalam pengembangan AI: Masyarakat harus dilibatkan dalam pengembangan sistem AI. Ini dapat dilakukan melalui konsultasi publik, pengujian pengguna, dan inisiatif lainnya.
Terbuka terhadap masukan: Orang harus dapat memberikan masukan tentang sistem AI. Umpan balik ini harus digunakan untuk meningkatkan sistem dan untuk mengatasi masalah apa pun yang mungkin dimiliki orang.
Memutuskan siapa yang harus bertanggung jawab atas keselamatan.
Siapa yang harus bertanggung jawab untuk memastikan bahwa AI aman?
Tanggung jawab untuk memastikan keamanan AI pada akhirnya berada pada sejumlah pemangku kepentingan, termasuk:
- Developer: Developer bertanggung jawab untuk merancang dan membuat sistem AI yang aman dan etis. Mereka harus menggunakan keahlian mereka untuk memastikan bahwa sistem mereka tidak bias, melindungi privasi pengguna, dan tahan terhadap serangan.
- Organisasi: Organisasi yang menggunakan sistem AI bertanggung jawab untuk memastikan bahwa sistem ini digunakan secara aman dan etis. Mereka harus memiliki kebijakan dan prosedur yang jelas untuk penggunaan AI, dan mereka harus melatih karyawan mereka tentang cara menggunakan sistem ini dengan aman.
- Pemerintah: Pemerintah dapat berperan dalam memastikan keamanan AI dengan mengembangkan peraturan dan standar untuk pengembangan dan penggunaan sistem AI. Mereka juga dapat menyediakan dana untuk penelitian keamanan AI.
- Publik: Masyarakat dapat berperan dalam memastikan keamanan AI dengan mengedukasi diri sendiri tentang AI dan potensi risikonya. Mereka juga dapat mengadvokasi kebijakan dan peraturan yang akan melindungi mereka dari penyalahgunaan AI.
Dengan bekerja sama, semua pemangku kepentingan ini dapat membantu memastikan bahwa AI digunakan secara aman dan etis.
Berikut adalah beberapa tip khusus untuk memastikan keamanan AI:
- Identifikasi risiko: Langkah pertama untuk memastikan keamanan AI adalah mengidentifikasi potensi risiko yang terkait dengan sistem ini. Hal ini dapat dilakukan dengan melakukan penilaian risiko.
- Kurangi risiko: Setelah risiko teridentifikasi, risiko tersebut harus dikurangi atau dihilangkan. Ini dapat dilakukan dengan menggunakan berbagai teknik, seperti merancang sistem yang aman, menerapkan langkah-langkah keamanan, dan melatih pengguna.
- Pantau dan tinjau: Keefektifan tindakan keselamatan harus dipantau dan ditinjau secara berkelanjutan. Ini akan membantu untuk mengidentifikasi area mana saja di mana langkah-langkah tersebut perlu ditingkatkan.
- Dengan mengikuti tips ini, developer, organisasi, pemerintah, dan publik dapat membantu memastikan bahwa AI digunakan secara aman dan etis.
Menyeimbangkan keamanan dengan tujuan lain “Balancing safety with other goals”.
AI dapat digunakan untuk berbagai tujuan, beberapa di antaranya mungkin bertentangan dengan tujuan keselamatan. Misalnya, AI untuk mengembangkan sistem senjata otonom yang untuk mencelakakan orang. AI bisa juga untuk mengembangkan sistem pengawasan yang dapat digunakan untuk melacak pergerakan orang. Ini hanyalah dua contoh bagaimana AI untuk tujuan yang dapat bertentangan dengan tujuan keselamatan.
Penting untuk menyeimbangkan potensi manfaat AI dengan potensi risikonya. Hal ini dapat dilakukan dengan mengembangkan sistem AI yang aman dan etis, serta menggunakan sistem AI secara bertanggung jawab.
Berikut beberapa tips untuk menyeimbangkan keamanan dengan tujuan lain saat menggunakan AI:
- Pertimbangkan potensi risikonya: Sebelum menggunakan AI, penting untuk mempertimbangkan potensi risiko yang terkait dengan penggunaannya. Ini termasuk mempertimbangkan potensi bahaya bagi orang, properti, dan lingkungan.
- Desain sistem yang aman: Sistem AI harus dirancang dengan mempertimbangkan keselamatan. Ini termasuk menggunakan teknik seperti sistem fail-safe dan redundansi untuk mencegah kecelakaan dan cedera.
Terapkan langkah-langkah keamanan: Sistem AI harus diterapkan dengan langkah-langkah keamanan untuk melindungi dari akses, penggunaan, atau modifikasi yang tidak sah. - Latih pengguna: Pengguna sistem AI harus dilatih tentang cara menggunakan sistem ini dengan aman. Ini termasuk pelatihan tentang cara mengidentifikasi dan menghindari bahaya, dan cara melaporkan masalah keselamatan apa pun.
- Pantau dan tinjau: Keefektifan tindakan keselamatan harus dipantau dan ditinjau secara berkelanjutan. Ini akan membantu untuk mengidentifikasi area mana saja di mana langkah-langkah tersebut perlu ditingkatkan.
Dengan menerapkan lima kunci utama ini, kita dapat mengembangkan AI yang lebih aman dan bertanggung jawab. Mengutamakan keamanan dan etika dalam pengembangan AI adalah langkah penting untuk menghindari dampak negatif dan memastikan bahwa AI memberikan manfaat bagi masyarakat secara luas.