Anonim

Apakah itu algoritma, drone atau robot, di masa depan kita akan semakin berurusan dengan sistem otonom dan "cerdas", yang akan memiliki pengaruh pada hampir setiap aspek kehidupan kita dari sudut pandang ekonomi, sosial dan pribadi. Tampaknya tidak terhindarkan: teknologi baru hanya maju dan menjadi, dalam beberapa hal, lebih mudah diakses.

Namun, ini juga melibatkan risiko : semakin banyak pengamat bertanya-tanya, ketika teknologi menjadi lebih invasif, apa dampaknya terhadap hak asasi manusia : dari hak untuk hidup hingga privasi, dari kebebasan berekspresi hingga hak sosial dan ekonomi. Dan kemudian: bagaimana hak asasi manusia dapat dipertahankan dalam lanskap teknologi yang semakin dibentuk oleh robotika dan kecerdasan buatan (AI)?

Drone pembunuh. Para sarjana seperti Christof Heyns, seorang profesor hak asasi manusia di Universitas Pretoria dan seorang pembicara di PBB, menyatakan keprihatinan dalam beberapa forum tentang hukum, sedang dipelajari di beberapa negara, yang akan memungkinkan drone militer untuk memutuskan sendiri kapan harus mencapai target, tanpa kontrol manusia jarak jauh. Ini akan membuat mereka menjadi senjata yang lebih cepat dan lebih efektif. "Tapi, misalnya, " tanya Heyns, "akankah komputer dapat membuat penilaian yang berharga tentang fakta bahwa sekelompok orang dengan pakaian sederhana yang membawa senapan bukanlah pejuang musuh melainkan pemburu? Atau tentara yang menyerah? "

Wikipedia dan perang rahasia melawan Bot

Bahkan kelompok-kelompok seperti Komite Internasional untuk Kontrol Senjata Robot (ICRAC) baru-baru ini menyatakan keprihatinan mereka dengan surat publik untuk partisipasi Google dalam Proyek Maven, sebuah program militer yang menggunakan pembelajaran mesin untuk menganalisis rekaman pengintai drone : informasi yang diperoleh secara teori dapat digunakan untuk membunuh orang. ICRAC meminta Google untuk memastikan bahwa data yang dikumpulkan oleh penggunanya tidak pernah digunakan untuk tujuan militer, sehingga bergabung dengan protes karyawan G atas keterlibatan perusahaan dalam proyek tersebut. Namun, Google telah mengumumkan bahwa mereka tidak akan memperpanjang kontraknya.

Algoritma rasis dan seksis. Sementara kontroversi baru-baru ini mengenai pengumpulan data pribadi oleh Cambridge Analytica melalui penggunaan platform media sosial seperti Facebook terus menyebabkan kekhawatiran atas manipulasi dan campur tangan pada kesempatan pemilihan, di sisi lain analis data menempatkan peringatan praktik diskriminatif yang terkait dengan apa yang mereka sebut "masalah putih" kecerdasan buatan: sistem AI yang saat ini digunakan, pada kenyataannya, akan dilatih tentang data yang ada yang akan mereplikasi stereotip ras dan gender dan melanggengkan praktik diskriminatif di daerah seperti keamanan, keputusan pengadilan atau mencari pekerjaan.

Image Mengubah drone komersial menjadi senjata: menurut para ahli, itu adalah salah satu risiko yang terkait dengan penggunaan teknologi yang terdistorsi yang dengannya kita akan dipanggil untuk mengukur diri kita sendiri | Shutterstock

Peneliti Harvard, Cathy O'Neil, telah menyusun serangkaian kasus panjang di mana algoritma matematika tidak begitu objektif, tetapi menunjukkan preferensi dalam buku Senjata Penghancuran Matematika (Mondadori): dari algoritma yang digunakan dalam keuangan tinggi hingga yang yang mengukur probabilitas bahwa seorang individu dapat jatuh ke dalam perilaku kriminal, O'Neil percaya bahwa, semua hal dianggap sama, algoritma mendukung kulit putih pria. Dan dia bukan satu-satunya yang berpikir begitu.

Menurut psikolog Thomas Hill, salah satu cendekiawan terkemuka dunia tentang hubungan antara psikologi dan data besar, algoritma bahkan akan menderita gangguan mental nyata. Dia menulisnya dalam esainya yang diterbitkan oleh Aeon, di mana dia mengklaim bahwa ini terjadi karena cara mereka dibangun. Sebagai contoh, mereka dapat melupakan hal-hal lama ketika mereka mempelajari informasi baru dan menderita dari apa yang disebut "pelepasan bencana", di mana keseluruhan algoritma tidak lagi dapat belajar atau mengingat apa pun.

Mimpi buruk digital. Ancaman potensial dari teknologi baru terhadap hak asasi manusia dan keamanan fisik, politik dan digital disorot oleh University of Cambridge dalam sebuah studi tentang penggunaan berbahaya kecerdasan buatan: 26 pakar keamanan teknologi yang muncul menerbitkan laporan tentang penggunaan kecerdasan buatan (AI) oleh "negara-negara jahat", penjahat dan teroris. Kekhawatirannya adalah bahwa pertumbuhan kejahatan dunia maya selama dekade berikutnya tidak dapat dihentikan. Dan semakin banyak penggunaan "bot" dapat memanipulasi apa pun, dari pemilihan umum hingga buletin dan media sosial.

Kecerdasan buatan melayani pemerintah Cina

Semua ini memerlukan, menurut para peneliti, perhatian dan intervensi oleh para politisi: "AI - itu berbunyi - memiliki banyak aplikasi positif, tetapi itu adalah teknologi penggunaan ganda dan kecerdasan buatan para peneliti dan insinyur harus menyadari potensi penyalahgunaan. ".

Para penulis berasal dari organisasi seperti: Institut Masa Depan Kemanusiaan Universitas Oxford, pusat studi risiko eksistensial dari Universitas Cambridge, organisasi riset nirlaba intelijen buatan OpenAI, Electronic Frontier Foundation dan organisasi lainnya . Laporan setebal 100 halaman mengidentifikasi tiga domain keamanan (keamanan digital, fisik, dan politik) sebagai sangat relevan.

Di antara bahaya yang bisa kita hadapi di masa depan, akan ada serangan cyber baru seperti peretasan otomatis, spam email yang ditargetkan tepat menggunakan informasi kita yang dikumpulkan di jejaring sosial atau mengeksploitasi kerentanan sistem intelijen buatan itu sendiri. Ada orang-orang yang dapat mengubah drone komersial menjadi senjata, sementara dalam politik, seseorang dapat memanipulasi opini publik, dengan propaganda dan berita palsu yang ditargetkan, mencapai tingkat efektivitas yang tak terbayangkan hingga sekarang. Dan tidak hanya itu.

Skenario dystopian? Tidak menurut Seán Ó hÉigeartaigh, direktur eksekutif Pusat untuk studi risiko eksistensial di Universitas Cambridge, yang mengatakan: "Kecerdasan buatan adalah titik balik dan hubungan ini telah membayangkan bagaimana dunia akan terlihat dalam sekitar lima tahun ke depan. sepuluh tahun. Kita hidup di dunia yang penuh bahaya sehari-hari akibat penggunaan AI yang tidak tepat dan kita harus bertanggung jawab atas masalah - karena risikonya nyata. Ada pilihan yang perlu kita buat sekarang ".