Kupas Tuntas, gemasulawesi - Ledakan kecerdasan buatan atau Artificial Intelligence mengejutkan industri teknologi.
Penerapan AI menghasilkan banyak hal positif, seperti kemajuan signifikan dalam teknologi utama dan pengembangan alat-alat mengesankan yang sebelumnya tampak mustahil.
Namun, hal itu juga menimbulkan beberapa masalah yang, bertahun-tahun kemudian, masih dicari solusinya.
Metode penipuan berdasarkan deepfake bertenaga AI adalah masalah yang paling mengkhawatirkan.
Perusahaan AI juga terjebak dalam masalah ini karena tidak semuanya memiliki alat yang memungkinkan mereka mengidentifikasi secara akurat saat sebuah file adalah deepfake.
Bagi anda yang masih belum sepenuhnya paham tentang apa itu deepfake, itu adalah konten yang dihasilkan oleh AI di mana wajah atau tubuh seseorang diubah secara digital, biasanya dengan menumpangkannya pada wajah atau tubuh orang lain.
Dengan cara ini, korban tampak terlibat dalam situasi yang sebenarnya tidak pernah mereka alami.
Hal ini juga berlaku untuk berkas audio di mana pelaku kejahatan "mengkloning" suara seseorang untuk membuat mereka mengatakan apa pun yang mereka inginkan.
Di tangan yang tepat, jenis alat ini cukup berguna dan memungkinkan anda untuk mengembangkan kreativitas anda sepenuhnya.
Namun, seiring dengan semakin realistisnya deepfake AI, pelaku kejahatan mulai menggunakannya untuk penipuan mereka.
Awalnya, terdapat kesalahan yang jelas dalam gambar yang dihasilkan AI, sehingga mudah diidentifikasi dengan mata manusia.
Anda hanya perlu melihat hal-hal kecil seperti jari, karena menggambar tangan sulit bahkan untuk AI yang canggih.
Namun, seiring dengan berkembangnya model AI generatif, hasilnya menjadi semakin realistis, dan saat ini, banyak gambar yang dihasilkan AI tidak dapat dibedakan dari kenyataan.
Seolah itu belum cukup, beberapa perusahaan teknologi tidak puas hanya dengan alat pembuat gambar.
Dalam beberapa tahun terakhir, kita bahkan telah melihat model AI pembuat video dengan hasil yang mengesankan.
Bulan ini, ByteDance, perusahaan induk TikTok, meluncurkan model AI pembuat video dengan hasil paling realistis yang pernah kita lihat.
Model yang disebut OmniHuman-1 ini menjanjikan video deepfake yang 10x lebih baik dari sebelumnya.
Para siswa dapat menggunakannya untuk memperoleh gambar pelengkap untuk tugas atau presentasi, dan para seniman dapat memperoleh inspirasi untuk mulai berkarya.
Anda juga dapat membuat gambar hanya untuk bersenang-senang dengan teman-teman anda.
Namun, apa yang terjadi ketika seseorang dengan niat jahat ikut menggunakannya?
Penipuan, manipulasi, pemerasan, dan semua bentuk penipuan yang sudah ada bisa dibuat jauh lebih mudah oleh deepfake AI.
Ada banyak kasus deepfake yang digunakan untuk mencoba menipu atau mengancam, jadi orang harus semakin berhati-hati tentang konten multimedia yang mereka lihat di internet.
Faktanya, meningkatnya kekhawatiran tersebut telah tercermin dalam statistik, karena pencarian online terkait "gambar deepfake" meningkat sebesar 15 persen di seluruh dunia pada tahun 2024.
Lonjakan tersebut terjadi tepat setelah berita tentang hoaks atau penipuan yang menggunakan video atau gambar bertenaga AI muncul.
Beberapa istilah pencarian terkait yang paling populer adalah "cara mendeteksi gambar deepfake" dan "gambar asli vs. gambar yang dibuat AI."
Upaya penipuan atau hoaks berdasarkan deepfake AI kemungkinan akan terus meningkat mulai sekarang.
Bahkan anda dapat bertindak sebagai "aktor jahat" secara tidak sadar.
Anda tidak perlu menjadi orang yang membuat file DeepFake tertentu.
Yang perlu anda lakukan hanyalah menerima gambar, video, atau audio yang dimanipulasi dan membagikannya ke kontak anda atau di jejaring sosial anda seolah-olah itu nyata.
Ini sering kali bukan 100 persen kesalahan anda, karena, seperti yang dikatakan sebelumnya, konten deepfake bisa sangat realistis.
Meskipun banyak deepfake mungkin tidak dapat dibedakan dari kenyataan, ada beberapa langkah yang dapat anda ambil sendiri agar tidak menjadi korbannya.
Yang pertama adalah tetap skeptis terhadap konten media yang melibatkan tokoh masyarakat.
Contohnya, jika seorang aktor mempromosikan mata uang kripto palsu atau seorang politisi berada dalam situasi yang tidak nyata, reaksi pertama anda adalah meragukan keaslian berkas tersebut.
Jika konten tersebut diduga berasal dari tokoh masyarakat tertentu, periksa akun media sosial mereka, karena sering kali, video tokoh masyarakat itu berasal dari akun media sosial mereka sendiri.
Jika anda tidak dapat menemukan konten tersebut di akun media sosial mereka, tetaplah waspada.
Anda juga harus mengaktifkan fitur identifikasi konten AI di perangkat dan aplikasi anda.
Terakhir, ada juga alat-alat deteksi deepfake yang dapat anda gunakan, dan meskipun terkadang alat tersebut mungkin gagal, alat-alat itu biasanya cukup efektif.
Ada beberapa platform serupa yang tersedia, baik yang bersifat publik maupun eksklusif untuk sistem atau perangkat keras tertentu.
Deepware Scanner adalah salah satu yang dapat anda gunakan sendiri secara bebas dari browser.
Yang lainnya, seperti DuckDuckGoose, Intel FakeCatcher, dan Reality Defender, dirancang untuk bisnis atau perusahaan.
Singkatnya, deepfake yang didukung AI akan terus ada, tetapi itu belum tentu hal yang buruk.
Kemampuan kecerdasan buatan yang mengagumkan juga sangat berguna untuk mencari inspirasi tambahan, mengoptimalkan alur kerja, menghemat waktu, dan melepaskan kreativitas anda.
Namun, anda harus menyadari konteks yang sedang kita hadapi dan lebih waspada tentang cara anda menangani konten yang anda konsumsi di internet. (*/Armyanti)