ARTICLE AD BOX
Kupas Tuntas, gemasulawesi - Saat ini, kecerdasan buatan telah menjadi bagian dari kehidupan kita sehari-hari, bahkan tanpa disadari, dan sektor ini telah maju dengan kecepatan yang mengejutkan banyak orang.
Namun, Eric Schmidt, mantan CEO Google, memperingatkan bahwa tingkat kemajuan AI ini bahkan dapat berbahaya bagi manusia.
Apa yang dapat dilakukan platform dan layanan bertenaga AI saat ini tampaknya tidak terpikirkan beberapa tahun yang lalu.
Perkembangan yang cepat telah membantu kita menikmati fitur-fitur canggih yang membuat kehidupan kita sehari-hari menjadi lebih mudah.
Anda dapat melakukan pengeditan yang rumit pada gambar dengan beberapa perintah atau ketukan atau memahami bahasa asing secara praktis dalam waktu nyata.
Basis pengembangan AI adalah model, yang diberi label berbeda menurut ukurannya. Ada LLM atau Large Language Mode (model bahasa besar) dan SLM atau Small Language Model (model bahasa kecil).
Model bahasa besar (LLM) bergantung pada pusat data besar yang dilengkapi dengan ratusan atau ribuan chip AI dan GPU untuk menangani tugas-tugas berbasis AI suatu organisasi.
Di sisi lain, SLM memungkinkan tugas-tugas AI di perangkat seluler atau laptop, yang menghabiskan lebih sedikit sumber daya.
Gemini Pro dan Gemini Ultra adalah contoh LLM, sedangkan Gemini Nano adalah contoh SLM.
Meski demikian, potensi bahayanya terletak pada LLM, setidaknya menurut Eric Schmidt.
Mantan CEO Google tersebut merujuk pada kecepatan evolusi AI.
"Kita akan segera dapat menjalankan komputer sendiri, memutuskan apa yang ingin dilakukannya," kata Schmidt, dikutip dari Android Headlines.
Beberapa bulan yang lalu, ada laporan tentang Meta AI yang mampu melatih AI lain.
Anda dapat menggunakan kasus tersebut sebagai contoh terkini, meskipun belum mencapai tingkat yang diungkapkan Eric Schmidt.
Secara khusus, mantan CEO Google tersebut merujuk pada saat kita mencapai titik di mana AI mampu "memperbaiki diri sendiri" dalam skala besar.
"Secara teori, sebaiknya kita memiliki seseorang yang siap sedia," Schmidt memperingatkan.
Pakar industri memperkirakan bahwa platform AI yang paling canggih akan dapat bekerja pada level mahasiswa Ph.D. tahun depan.
Eric Schmidt sendiri yakin bahwa platform AI dapat mulai melakukan penelitian sendiri tahun depan.
Jika ada AI yang lepas kendali, Schmidt mengklaim bahwa hanya AI lain yang dapat menghentikannya.
Pada dasarnya, bersamaan dengan setiap platform AI yang besar, pasti ada platform lain yang dirancang untuk mengendalikannya.
"Sistem AI harus dapat mengawasi AI," katanya.
Eric Schmidt tidak hanya khawatir tentang potensi bahaya AI yang berevolusi terlalu banyak dengan sendirinya.
Ia juga bertanya-tanya apa yang dapat dilakukan seseorang dengan kekuatan AI canggih yang mereka miliki.
"Kita tidak tahu apa artinya memberikan kekuatan semacam itu kepada setiap individu," katanya.
Ini bukanlah pandangan yang baru dalam industri kecerdasan buatan ini.
Pada awal tahun 2023, nama-nama terkemuka seperti Elon Musk dan salah satu pendiri Apple, Steve Wozniak, menyerukan agar kemajuan kecerdasan buatan dihentikan sementara atau ditunda.
Mereka mengatakan bahwa pengembangan AI pada tingkat tersebut harus menunggu hingga "kami yakin bahwa dampaknya akan positif dan risikonya dapat dikelola." (*/Armyanti)