AI (Artificial Intelegence) atau Kecerdasan buatan selama ini dikembangkan namun keadaanya semakin mengkhawatirkan umat manusia.
Dalam beberapa pekan terakhir, sebuah cerita tentang penelitian mesin eksperimental Facebook telah beredar dengan semakin panik, berita utama Skynet-esque.
Dalam beberapa pekan terakhir, sebuah cerita tentang penelitian mesin eksperimental Facebook telah beredar dengan semakin panik, berita utama Skynet-esque.
"Para insinyur Facebook panik, menarik steker AI setelah bot mengembangkan bahasa mereka sendiri," tulis satu situs . "Facebook Shutdown AI setelah menciptakan bahasa menyeramkan sendiri," tambah yang lain . "Apakah kita manusia hanya menciptakan Frankenstein?" Tanya yang lain . Satu tabloid Inggris mengutip seorang profesor robotika yang mengatakan bahwa insiden tersebut menunjukkan "bahaya menunda kecerdasan buatan" dan "bisa mematikan" jika teknologi serupa disuntikkan ke robot militer.
Referensi untuk revolusi robot yang akan datang, pembunuh droid, AI jahat dan pemusnahan manusia berlimpah, beberapa lebih atau kurang serius daripada yang lain. Terus dikutip adalah bagian ini, di mana dua Facebook chat bots telah belajar untuk berbicara satu sama lain dalam apa yang memang cara yang cukup menyeramkan.
Bob: I can i i everything elseAlice: balls have zero to me to me to me to me to me to me to me to me toBob: you i everything elseAlice: balls have a ball to me to me to me to me to me to me to me to me
Kenyataannya agak lebih Prosais. Beberapa minggu yang lalu, FastCo Design melapor pada upaya Facebook untuk mengembangkan "jaringan permusuhan generatif" dengan tujuan mengembangkan perangkat lunak negosiasi.
Dua bots yang dikutip dalam bagian di atas dirancang, seperti yang dijelaskan dalamposting blog Artificial Intelligence Research Unit pada bulan Juni, untuk tujuan menunjukkan bahwa "mungkin bagi agen dialog dengan tujuan yang berbeda (diimplementasikan sebagai end-to-end-dilatih Jaringan syaraf tiruan) untuk terlibat dalam negosiasi awal sampai akhir dengan bot atau orang lain saat mencapai keputusan atau hasil yang sama. "
Bots tidak pernah melakukan hal yang lebih jahat daripada berdiskusi satu sama lain bagaimana membagi rangkaian item yang diberikan (ditunjukkan di antarmuka pengguna sebagai objek yang tidak berbahaya seperti buku, topi, dan bola) menjadi perpecahan yang disepakati bersama.
Tujuannya adalah untuk mengembangkan chatbot yang bisa belajar dari interaksi manusia untuk menegosiasikan kesepakatan dengan pengguna akhir dengan lancar mengatakan bahwa pengguna tidak akan menyadari bahwa mereka berbicara dengan robot, yang menurut FAIR sukses:
"Kinerja agen negosiasi terbaik FAIR, yang memanfaatkan pembelajaran penguatan dan penggabungan dialog, sesuai dengan negosiator manusia ... menunjukkan bahwa bot FAIR tidak hanya dapat berbicara bahasa Inggris tetapi juga berpikir cerdas tentang apa yang harus dikatakan."
Ketika Facebook mengarahkan dua dari bot semi-cerdas ini untuk saling berbicara, FastCo melaporkan, para pemrogram menyadari bahwa mereka telah membuat kesalahan dengan tidak memberi insentif kepada chatbots untuk berkomunikasi sesuai dengan peraturan bahasa Inggris yang dapat dipahami manusia. Dalam usaha mereka untuk belajar dari satu sama lain, bot tersebut mulai mengobrol bolak-balik dalam arus turun yang diturunkan-tapi sementara itu mungkin terlihat menyeramkan, hanya itu saja.
"Agen akan menghilangkan bahasa yang mudah dimengerti dan menemukan codeword untuk diri mereka sendiri," kata peneliti Dhani Batra. "Seperti jika saya mengatakan 'lima kali', Anda menafsirkannya berarti saya menginginkan lima salinan dari item ini. Ini tidak begitu berbeda dengan cara masyarakat manusia menciptakan stan. "
Facebook memang menutup pembicaraan, tapi bukan karena mereka panik karena memiliki Skynet yang potensial. Peneliti FAIR Mike Lewis mengatakan kepada FastCo bahwa mereka telah memutuskan bahwa "minat kita adalah memiliki bot yang bisa berbicara dengan orang lain," tidak efisien satu sama lain, dan dengan demikian memilih untuk meminta mereka saling menulis satu sama lain dengan jelas.
Tapi dalam permainan konten telepon tidak semua yang berbeda dari apa yang sedang dilakukan obrolan bots, cerita ini berevolusi dari pandangan terukur mengenai implikasi jangka pendek potensial dari teknologi pembelajaran mesin hingga doomsaying berkerut tipis.
Mungkin ada alasan bagus untuk tidak membiarkan mesin cerdas mengembangkan bahasa mereka sendiri yang tidak dapat dipahami oleh manusia secara cerdas - tapi sekali lagi, ini adalah fenomena yang relatif biasa yang muncul saat Anda menggunakan dua alat belajar mesin dan membiarkan mereka belajar satu sama lain. Perlu dicatat bahwa ketika steno bot dijelaskan, percakapan yang dihasilkan bisa dimengerti dan hampir sama menyeramkannya seperti sebelumnya.
Seperti yang dikemukakan FastCo, mungkin pembelajaran mesin semacam ini memungkinkan perangkat cerdas atau sistem berkomunikasi satu sama lain dengan lebih efisien. Keuntungan itu mungkin datang dengan beberapa masalah - bayangkan betapa sulitnya meniru sistem seperti itu yang salah - tapi sangat berbeda dengan melepaskan kecerdasan mesin dari kontrol manusia.
Dalam kasus ini, satu-satunya obrolan yang bisa dilakukan adalah menemukan cara yang lebih efisien untuk saling bertukar bola satu sama lain.
Ada baiknya menggunakan teknologi pembelajaran mesin, seperti diagnosa medis yang lebih baik , dan yang berpotensi sangat buruk, seperti perangkat lunak prediksiperusuhan yang dapat digunakan polisi untuk membenarkan tindakan yang dilakukan terhadap demonstrasi. Semua dari mereka pada dasarnya adalah cara untuk mengumpulkan dan menganalisis sejumlah besar data, dan sejauh ini risikonya terutama berkaitan dengan bagaimana manusia memilih untuk mendistribusikan dan menggunakan kekuatan itu.
Mudah-mudahan manusia juga akan cukup pintar untuk tidak memasukkan program pembelajaran mesin eksperimental ke dalam sesuatu yang sangat berbahaya, seperti tentara laser androids atau reaktor nuklir. Tetapi jika seseorang melakukan dan sebuah bencana terjadi kemudian, itu akan menjadi akibat kelalaian dan kebodohan manusia, bukan karena robot tersebut memiliki ilham filosofis tentang betapa buruknya manusia.
Setidaknya belum. Mesin belajar adalah tempat yang dekat dengan AI sejati , hanya awal manusia yang meraba-raba dengan teknologinya. Jika ada orang yang harus panik tentang berita ini di tahun 2017, juru runding profesional, yang bisa menemukan diri mereka keluar dari pekerjaan .
[ Fastco Design ]
No comments:
Post a Comment