Tuesday, Jul 1, 2025

Hinton, Nobel Fisika, dan Malapetaka AI

Dua dekade lalu, kecerdasan buatan [Ai] mungkin hanya ada dalam khayalan kita [fiksi]. Seperti dalam film The Terminator yang pertama kali rilis tahun 1984, saat muncul teknologi bernama Skynet. Sebuah sistem kecerdasan buatan berbasis komputer, yang menjadi lebih pintar dari manusia.

Namun kini, berkat kemajuan teknologi yang pesat, mimpi itu perlahan-lahan menjadi kenyataan. Kecerdasan buatan telah berkembang jauh melampaui imajinasi kita, bisa menjalankan berbagai tugas yang super kompleks. Dari pengenalan wajah yang digunakan dalam keamanan hingga asisten virtual yang membantu kita dalam kehidupan sehari-hari, Ai telah menjadi bagian integral dari rutinitas kita.

Salah satu perkembangan paling canggih dalam Ai adalah kemampuan deep learning, di mana algoritma dapat mempelajari dan mengenali pola dari data dalam jumlah besar. Teknologi ini telah diterapkan di berbagai bidang, mulai dari diagnosis medis yang lebih akurat hingga kendaraan otonom yang dapat beroperasi tanpa pengemudi.

Di sektor industri, Ai juga telah mengubah cara perusahaan beroperasi. Dengan otomatisasi proses produksi dan analisis data real-time, perusahaan kini dapat mengoptimalkan kinerja dan mengurangi biaya. Lihatlah bagaimana BYD, pabrikan mobil listrik asal Tiongkok, yang kini bisa meningkatkan efisiensi produksinya. Beberapa laporan menyebut, berkat bantuan Ai BYD mampu memproduksi 3000 unit mobil per hari atau sekitar 125 hingga 166 unit perjam.

Namun magnet industri kecerdasan buatan juga tak bisa lepas dari sorotan. Ada ragam kontradiksi di balik pesona kecerdasannya yang mencengangkan. Dan itu sebetulnya sudah terlihat dari pertama kali dasar-dasar perkembangan kecerdasan buatan itu diletakan. 

Dua tahun sebelum rilisnya The Terminator, John J. Hopfield seorang fisikawan teoretis menulis artikel penting tentang memori asosiatif. Di situ, dia memperkenalkan konsep jaringan saraf tiruan yang bisa meniru cara otak manusia menyimpan dan mengingat informasi.

Dengan jaringan yang dia sebut Hopfield Network, ia membuka jalan bagi era baru kecerdasan buatan. Ide dasarnya, otak manusia dapat mengingat informasi walaupun hanya sebagian data yang tersedia. Jaringannya lantas bekerja dengan prinsip minimasi energi, sehingga sistemnya bisa “menduga” apa informasi yang hilang. Ini menjadi salah satu landasan awal perkembangan AI.

Namun, perjalanannya tidak berhenti di situ. Geoffrey Hinton, pria kelahiran Inggris yang kemudian pindah ke Kanada, mengambil estafet dari Hopfield. Hinton tidak hanya melanjutkan ide tersebut, tetapi juga memperdalamnya. Di pertengahan 1980-an, Hinton bersama timnya memperkenalkan backpropagation, sebuah metode yang membuat jaringan saraf tiruan bisa belajar dari kesalahan. Kalau dalam kehidupan sehari-hari kita belajar dari pengalaman buruk, jaringan saraf ini juga bisa belajar dari kesalahan dalam memproses data. Hebatnya, metode ini membuat AI semakin pintar.

Bersama rekannya, Terrence Sejnowski, Hinton mengembangkan jaringan Hofield dengan menggabungkan ide-ide fisika statistik, dan rumus fisika Ludwig Boltzman. Hasilnya, lahirlah sebuah mesin yang dikenal sebagai mesin Boltzmann [tahun 1985]. Sayang, karyanya ini ternyata tak begitu menarik perhatian banyak orang. Bahkan dianggap sebagai

Di tengah ketidakpercayaan publik atas ciptaannya, Hinton meski nyaris patah arang, lantas melanjutkan penelitian. Ia pun bergabung dengan Universitas Toronto [1987], bekerja dengan mahasiswa pascasarjana untuk lebih memajukan kecerdasan buatan. Hingga akhirnya Hinton berhasil menemukan metode yang bisa secara mandiri menemukan pola dalam data, sesuatu yang penting untuk jaringan saraf buatan berskala besar [deep learning]. Inilah teknologi yang sekarang dipakai untuk pengenalan suara, gambar, hingga sistem otonom seperti mobil tanpa pengemudi.

Pada tahun 2012, Hinton dan timnya memenangkan kompetisi ImageNet menggunakan jaringan saraf dalam. Kemenangan itu ibarat lonceng kemenangan bagi Ai di era modern—menandakan bahwa metode tradisional telah tertinggal jauh.

Malapetaka Ai

Tahun 2024, Nobel Fisika datang kepadanya sebagai pengakuan atas karyanya. Dunia ilmu pengetahuan bersorak. Tapi, di balik penghargaan itu, ada cerita lain yang lebih gelap. Hinton ternyata menyadari bahwa teknologi yang ia ciptakan, jika tidak diawasi dengan baik, bisa jadi bumerang yang mematikan. “Bagaimana jika teknologi ini melampaui kita?” tanyanya. Seperti Frankenstein yang takut ciptaannya akan menghancurkannya, Hinton mulai memperingatkan dunia tentang potensi bahaya dari AI.

Dulu, Hinton adalah sosok optimis yang percaya bahwa AI akan membawa kemajuan bagi manusia. Di bawah payung raksasa teknologi seperti Google, ia membantu mengembangkan AI yang bisa berpikir, belajar, dan bahkan membuat keputusan sendiri. Tetapi, seiring dengan kemajuan teknologi yang pesat, Hinton mulai melihat celah-celah gelap dalam ciptaannya. Beberapa tahun setelah bergabung dengan Google, ia mulai meragukan apakah teknologi ini benar-benar seaman yang ia kira.

Pada tahun 2023, Hinton mengambil keputusan besar—ia meninggalkan Google. Tidak ada perayaan perpisahan atau pesta perpisahan, hanya keputusan tenang dari seorang ilmuwan yang merasa harus bertindak sebelum terlambat. Ia mulai muncul di berbagai wawancara, mengungkapkan peringatannya tentang bahaya AI. Di antara semua ketakutannya, ada satu yang menonjol: “Bagaimana jika AI mulai membuat keputusan tanpa melibatkan manusia?”

Saya pernah melihat wajah kekhawatiran Hinton tentang Ai secara langsung, saat mengikuti Artificial Intelligence Conference di MGM Cenference Centre, Las Vegas pada Rabu [11/8/2024] silam. Di hadapan ribuan pegiat Ai dari berbagai negara, Hinton menyampaikan kekhawatirannya bahwa meskipun Ai menawarkan potensi luar biasa, risikonya sama besar.

Ia melihat ada potensi yang tidak diinginkan dan berbahaya, termasuk misinformasi, perpindahan pekerjaan, dan bahkan ancaman nyata – termasuk kepunahan manusia, atau yang disebut “risiko x.” Dia telah menyatakan keprihatinannya bahwa teknologi yang dia bantu ciptakan pada akhirnya akan melampaui kecerdasan manusia dalam cara yang tidak dapat diprediksi, sebuah skenario yang menurutnya sangat meresahkan.

Jika dipikir-pikir, Hinton mungkin sedang mempersiapkan kita untuk skenario film fiksi ilmiah paling menakutkan. Ia memperingatkan tentang senjata otonom—mesin pembunuh yang tidak membutuhkan manusia untuk menekan tombol. Di tengah konflik geopolitik yang memanas, senjata ini bisa menjadi kenyataan yang mengerikan. Bayangkan jika robot-robot pembunuh berpatroli di zona perang tanpa kendali manusia. Jika Anda merasa ini terdengar seperti adegan dari film Terminator, Anda tidak sendirian. Sayangnya, Hinton tidak bicara soal fiksi, ia bicara soal kemungkinan nyata.

Lalu ada video palsu (deepfakes) yang semakin sulit dibedakan dengan kenyataan. Bayangkan seorang pemimpin dunia mengumumkan perang dalam video yang tampak sangat nyata, tetapi sebenarnya video itu adalah rekayasa. Apa yang akan terjadi pada stabilitas global ketika informasi yang benar dan palsu tidak lagi bisa dibedakan?

Tak hanya itu, Hinton juga khawatir AI akan digunakan untuk kejahatan perbankan dan penipuan. Dengan kemampuan AI untuk memproses data dalam jumlah besar dan belajar dari pola, kejahatan seperti penipuan identitas bisa mencapai level yang belum pernah kita bayangkan. Mesin yang seharusnya membantu manusia kini bisa dimanfaatkan untuk menjatuhkan sistem keuangan global.

Mungkin kekhawatiran terbesar Hinton adalah bahwa Ai akan berkembang begitu cepat hingga pada titik tertentu, manusia tidak lagi bisa mengendalikannya. Ai yang lebih cerdas daripada manusia dapat membuat keputusan yang tidak bisa dipahami oleh penciptanya sendiri. Ini bukan lagi soal menghindari serangan siber atau membendung penyebaran berita palsu, tetapi soal siapa yang memegang kendali di dunia ini. Manusia, atau mesin?

Hinton mengakui bahwa dirinya salah, bukan dalam hal pengembangan teknologi, tetapi dalam mengabaikan konsekuensi jangka panjangnya. Dalam pidato penerimaan Nobel-nya, ia berkata, “Dalam keadaan yang sama, saya akan melakukan hal yang sama lagi. Tetapi, saya khawatir bahwa hasil akhirnya mungkin adalah sistem yang lebih cerdas dari kita yang akhirnya mengambil kendali.” Tentu, ini bukan kalimat ringan. Itu adalah peringatan.

Pertanyaan besarnya, ke mana kita akan membawa Ai selanjutnya. Hinton mungkin telah menciptakan fondasinya, tetapi generasi berikutnya memiliki tanggung jawab untuk memastikan bahwa teknologi ini digunakan secara etis. Di satu sisi, Ai memiliki potensi luar biasa untuk membantu kita mengatasi tantangan global, dari perubahan iklim hingga penyakit. Di sisi lain, jika tidak diatur dengan baik, Ai bisa menjadi ancaman besar keberlanjutan umat manusia.

Mungkin kita harus mendengarkan peringatan Hinton dengan serius. Jika sang “Dewa AI” sendiri mulai khawatir tentang ciptaannya, mungkin sudah saatnya kita juga mulai waspada. Lagipula, kita tidak ingin berakhir seperti tokoh dalam kisah Frankenstein, bukan?

Dipublikasi Republika pada 10 Oktober 2024

https://analisis.republika.co.id/berita/sl4bt8451/hinton-nobel-fisika-dan-malapetaka-ai-part4

Leave a Reply

Your email address will not be published. Required fields are marked *