Maret 2019 lalu, para peneliti China mengumumkan tentang sebuah keberhasilan dari serangan cerdik dan berpotensi menghancurkan salah satu aset teknologi paling berharga di Amerika — mobil listrik Tesla.
Tim, dari lab keamanan raksasa teknologi Tencent China, mendemonstrasikan beberapa cara untuk mengelabui algoritma artificial intelligence (AI) pada mobil Tesla. Dengan secara menganggu data yang dimasukkan ke sensor mobil, para peneliti dapat memperdaya dan membingungkan kecerdasan buatan yang menjalankan kendaraan tersebut.
Dalam satu kasus, layar TV berisi pola tersembunyi bisa menipu wiper untuk aktif. Di tempat lain, tanda-tanda jalur di jalan sedikit dimodifikasi untuk membingungkan sistem mengemudi otonom sehingga melaju ke jalur yang salah.
Algoritma Tesla sebenarnya brilian termasuk mendeteksi tetesan hujan di kaca depan atau mengikuti garis di jalan, tetapi mereka bekerja dengan cara yang secara fundamental berbeda dari persepsi manusia. Algoritma “pembelajaran mendalam” atau “deep learning” yang dengan cepat menyapu berbagai industri untuk aplikasi seperti pengenalan wajah dan diagnosis kanker, secara mengejutkan mudah untuk dibodohi jika Anda menemukan titik lemahnya.
Bisa menyesatkan Tesla mungkin tidak terlihat seperti menjadi ancaman strategis bagi Amerika Serikat. Tetapi bagaimana jika teknik serupa digunakan untuk mengelabui drone serangan, atau perangkat lunak yang menganalisis gambar satelit, untuk melihat hal-hal yang tidak ada di sana?
Di seluruh dunia, AI sudah dipandang sebagai keuntungan militer besar berikutnya. Awal tahun ini, Amerika mengumumkan strategi besar untuk memanfaatkan kecerdasan buatan di banyak bidang militer, termasuk analisis intelijen, pengambilan keputusan, kendaraan otonom, logistik, dan persenjataan.
Departemen Pertahanan Amerika mengusulkan anggaran US$ 718 miliar dan mengalokasikan $ 927 juta untuk tahun 2020 untuk AI dan machine learning. Proyek yang ada termasuk menguji dari hal-hal yang biasa seperti apakah AI dapat memprediksi kapan tank dan truk membutuhkan pemeliharaan hingga hal-hal yang berada di ujung tombak teknologi senjata seperti segerombolan drone.
Will Knight, senior editor AI di MIT Technology Review dalam tulisannya menyebut upaya Pentagon untuk mengembangkan AI sebagian didorong oleh ketakutan akan cara negara pesaing menggunakan teknologi ini. Tahun lalu Jim Mattis, yang saat itu menjabat sebagai Menteri Pertahanan Amerika, mengirim memo kepada Presiden Donald Trump memperingatkan bahwa Amerika sudah ketinggalan dalam pengembangan AI. Kekhawatirannya bisa dimengerti.
Pada bulan Juli 2017, China mengartikulasikan strategi AI-nya, menyatakan bahwa “negara-negara maju utama dunia mengambil pengembangan AI sebagai strategi utama untuk meningkatkan daya saing nasional dan melindungi keamanan nasional.” Dan beberapa bulan kemudian, Presiden Rusia Vladimir Putin menyatakan “Siapa pun yang menjadi pemimpin di bidang [AI] akan menjadi penguasa dunia.”
Ambisi untuk membangun senjata paling cerdas, dan paling mematikan, dapat dimengerti, tetapi seperti yang ditunjukkan oleh peretasan Tesla, musuh yang tahu bagaimana algoritma AI bekerja dapat menjadikannya tidak berguna atau bahkan mengubahnya melawan pemiliknya. Rahasia untuk memenangkan perang AI mungkin terletak bukan pada pembuatan senjata yang paling mengesankan tetapi dalam menguasai pengkhianatan perangkat lunak yang meresahkan.
Risiko di Militer
Pada hari yang cerah dan cerah musim panas lalu di Washington, DC, Michael Kanaan sedang duduk di kafetaria Pentagon, makan sandwich dan mengagumi seperangkat algoritma pembelajaran mesin yang kuat.
Beberapa minggu sebelumnya, Kanaan telah menonton video game di mana lima algoritma AI bekerja bersama untuk hampir mengalahkan manuver, outgun, dan mengecoh lima manusia dalam kontes yang melibatkan pengontrolan pasukan, dan sumber daya melintasi medan perang yang kompleks dan luas.
Alis di bawah rambut pirang Kanaan yang dipangkas berkerut. Dia menggambarkan tindakan itu sebagai salah satu demonstrasi paling mengesankan dari strategi AI yang pernah dia lihat, sebuah perkembangan tak terduga yang mirip dengan kemajuan AI dalam catur, Atari, dan permainan lainnya. Semua menggunakan OpenAI Five
Kanaan adalah pimpinan Project Maven di Angkatan Udara Amerika, sebuah inisiatif militer yang bertujuan menggunakan AI untuk mengotomatiskan identifikasi objek dalam citra udara. Google adalah kontraktor di Maven, dan ketika karyawan Google lainnya mengetahui hal itu, pada tahun 2018, perusahaan memutuskan untuk meninggalkan proyek.
Ia kemudian menyusun kode etik AI yang mengatakan Google tidak akan menggunakan AI-nya untuk mengembangkan “senjata atau teknologi lain yang tujuan atau implementasinya adalah untuk menyebabkan atau secara langsung memfasilitasi cedera pada orang.”
Pekerja di beberapa perusahaan teknologi besar lainnya mengikuti dengan menuntut agar perusahaan menghindari kontrak militer. Banyak peneliti AI terkemuka telah mendukung upaya untuk memulai larangan global pada pengembangan senjata yang sepenuhnya otonom.
Bagi Kanaan, bagaimanapun, akan menjadi masalah besar jika militer tidak dapat bekerja dengan para peneliti seperti mereka yang mengembangkan OpenAI Five. Yang lebih mengganggu lagi adalah prospek musuh mendapatkan akses ke teknologi canggih seperti itu. “Kode itu ada di luar sana untuk digunakan siapa saja,” katanya. Dia menambahkan: “perang jauh lebih kompleks daripada beberapa video game.”
Kanaan umumnya sangat ragu tentang AI, sebagian karena dia tahu secara langsung betapa berartinya bagi pasukan. Enam tahun lalu, sebagai perwira intelijen Angkatan Udara di Afghanistan, ia bertanggung jawab untuk menyebarkan jenis alat pengumpulan intelijen baru: sebuah pencitraan hiperspektral.
Instrumen ini dapat melihat benda-benda yang biasanya tersembunyi dari pandangan, seperti tank yang tersamar kamuflase atau emisi dari pabrik pembuat bom yang diimprovisasi. Kanaan mengatakan sistem itu membantu pasukan Amerika menyingkirkan ribuan pon bahan peledak sebelum sampai medan perang.
Meski begitu, sering kali tidak praktis bagi analis dalam memproses sejumlah besar data yang dikumpulkan oleh imager. “Kami menghabiskan terlalu banyak waktu untuk melihat data dan tidak cukup waktu untuk mengambil keputusan,” katanya. “Terkadang butuh waktu begitu lama sehingga Anda bertanya-tanya apakah Anda bisa menyelamatkan lebih banyak nyawa.”
Sebuah solusi bisa datang dari terobosan dalam visi komputer oleh tim yang dipimpin oleh Geoffrey Hinton di University of Toronto. Langkah ini menunjukkan bahwa suatu algoritma yang terinspirasi oleh jaringan saraf berlapis dapat mengenali objek dalam gambar dengan keterampilan yang belum pernah terjadi sebelumnya ketika diberi cukup data dan daya komputer.
Pelatihan jaringan saraf melibatkan pengumpanan dalam data, seperti piksel dalam gambar, dan terus-menerus mengubah koneksi dalam jaringan, menggunakan teknik matematika, sehingga output mendekati hasil tertentu, seperti mengidentifikasi objek dalam gambar.
Seiring waktu, jaringan pembelajaran mengenali pola piksel yang membentuk rumah atau orang. Kemajuan dalam pembelajaran mendalam telah memicu ledakan AI saat ini; teknologi ini mendukung sistem otonom Tesla dan algoritma OpenAI.
Kanaan segera mengenali potensi pembelajaran mendalam untuk memproses berbagai jenis gambar dan data sensor yang penting untuk operasi militer. Dia dan yang lainnya di Angkatan Udara Amerika segera mulai melobi atasan mereka untuk berinvestasi dalam teknologi. Upaya mereka telah berkontribusi pada dorongan AI Pentagon yang besar.
Tapi tak lama setelah pembelajaran mendalam tenar, para peneliti menemukan bahwa sifat yang membuatnya sangat kuat juga merupakan kelemahan.
Perubahan minimal pada gambar input dapat menyebabkan jaringan untuk mengklasifikasikan secara salah. Dalam sebuah contoh hanya beberapa piksel dalam gambar yang diubah, meski masih tampak sama bagi seseorang tetapi sangat berbeda dengan algoritma AI. Masalahnya dapat muncul di mana saja misalnya, dalam memandu kendaraan otonom, misi perencanaan, atau mendeteksi intrusi jaringan.
Di tengah meningkatnya penggunaan AI oleh militer, kerentanan misterius dalam perangkat lunak ini semakin tidak diperhatikan.
Objek bergerak
Satu objek yang luar biasa berfungsi untuk menggambarkan kekuatan pembelajaran mesin permusuhan. Ini adalah model kura-kura.
Bagi kita itu terlihat normal, tetapi untuk drone atau robot yang menjalankan algoritma visi pembelajaran mendalam, tampak terlihat seperti senapan. Bahkan, pada satu titik, pola tanda yang unik pada cangkang kura-kura dapat direkonstruksi sehingga sistem penglihatan AI yang tersedia melalui cloud Google akan salah mengartikannya apa saja. Google sejak itu memperbarui algoritme sehingga tidak tertipu.
Kura-kura itu tidak diciptakan oleh musuh, tetapi oleh empat orang di Massachusetts Institute of Technology (MIT). Salah satunya adalah Anish Athalye, seorang pemuda kurus dan sangat sopan yang bekerja di bidang keamanan komputer di Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL) MIT. Dalam sebuah video di laptop Athalye dari kura-kura yang sedang diuji itu diputar melalui 360 derajat dan terbalik terbalik. Algoritma mendeteksi hal yang sama berulang-ulang: “rifle,” “rifle,” “rifle.”
Sekarang bayangkan jika rudal yang dipandu oleh AI dapat dibutakan oleh data lawan dan mungkin justru mengarahkan kembali ke sasaran yang bersahabat.