Sunday, February 25, 2018

Resiko Penggunaan Kecerdasan Buatan

 Perkembangan cepat dalam kecerdasan buatan tingkatkan resiko pemakai yang tidak bertanggungjawab juga akan pemakaian tehnologi untuk lakukan peretasan automatis, sampai mengakibatkan kecelakaan mobil otonom atau merubah pesawat komersial jadi senjata.

Menurut penelitian dalam makalah yang dipublikasikan pada Rabu (21/2/2018) oleh 25 peneliti tehnik serta kebijakan umum dari kampus Cambridge, Oxford serta Yale dengan pakar privacy serta militer, memperingatkan penyalahgunaan kecerdasan buatan (artificial intelligence/AI) oleh negara-negara, penjahat, dan hacker.

Ditulis Reuters, beberapa peneliti tersebut menyebutkan kalau pemakaian AI yang salah bisa meneror keamanan digital, fisik, serta politik dengan sangat mungkin serangan bertaraf besar yang ditargetkan dengan begitu efektif. Studi ini fokus pada perubahan yang masuk akal dalam lima tahun.

Baca juga: Biaya Kuliah UI - Biaya UKT UI

" Kami semuanya sepakat terdapat beberapa aplikasi AI yang positif. Tetapi, ada celah sekitar problem pemakaian yang beresiko, " ungkap Miles Brundage, seseorang peneliti di Oxford's Future of Humanity Institute, seperti diambil Reuters.

AI melibatkan pemakaian computer untuk lakukan pekerjaan yang umumnya memerlukan kecerdasan manusia, seperti memutuskan atau mengetahui teks, perkataan atau gambar visual.

Hal semacam ini dipandang jadi kemampuan yang kuat untuk buka semua peluang tehnis tetapi sudah jadi konsentrasi perbincangan tentang apakah otomatisasi itu bisa menyebabkan pada meningkatnya pengangguran, dan dislokasi sosial yang lain.

Makalah ini membahas perubahan riset akademis mengenai resiko keamanan yang diakibatkan oleh AI serta memohon pemerintah serta pakar kebijakan serta tehnis untuk bekerjasama serta meredakan bahaya ini.

Beberapa peneliti merinci kemampuan AI untuk hasilkan gambar, teks, serta audio buatan untuk mengikuti jati diri orang yang lain dengan on-line untuk memengaruhi opini umum, mencatat ancaman kalau rezim otoriter bisa memakai tehnologi seperti itu.

Makalah itu juga buat rangkaian referensi termasuk juga mengatur AI jadi tehnologi militer/komersial yang mempunyai peranann ganda. Diluar itu, makalah itu juga mempertanyakan apakah akademisi serta pihak beda mesti mengatur apa yang mereka publikasikan atau ungkapkan mengenai perubahan baru di AI hingga beberapa pakar beda mempunyai peluang untuk belajar serta bereaksi pada potensi bahaya yang mungkin saja mereka hadapi.

" Kami pada akhirnya selesai dengan lebih beberapa pertanyaan dari pada jawaban, " kata Brundage.

Makalah ini lahir dari satu lokakarya dimuka 2017, serta sebagian perkiraannya pada intinya jadi fakta. Beberapa penulis mengira AI bisa dipakai untuk buat audio serta video palsu yang begitu realistis dari petinggi umum untuk maksud propaganda.



Baca juga: Biaya Kuliah LP3I

Akhir tahun lantas, apa yang dimaksud video porno " deepfake " mulai bermunculan dengan on-line, yang menghadirkan muka selebriti dengan badan yang berlainan serta tampak begitu realistis.

" Itu berlangsung dalam rezim pornografi serta bukanlah propaganda. Tetapi, yang deepfake perlihatkan tidak bias diaplikasikan pada propaganda, " ungkap Jack Clark, kepala kebijakan di OpenAI, group garapan CEO Tesla Inc Elon Musk serta investor Silicon Valley Sam Altman untuk konsentrasi pada AI yang berguna untuk umat manusia.

No comments:

Post a Comment