Mengenal Lebih Dalam Penipuan Deepfake, Bagaimana AI Menulis Ulang Realitas, serta Cara untuk Melawannya

Kenali DeepFake
Kenali DeepFake Source: Foto/X/@DetectDeepfakes

Kupas Tuntas, gemasulawesi - Ledakan kecerdasan buatan atau Artificial Intelligence mengejutkan industri teknologi.

Penerapan AI menghasilkan banyak hal positif, seperti kemajuan signifikan dalam teknologi utama dan pengembangan alat-alat mengesankan yang sebelumnya tampak mustahil.

Namun, hal itu juga menimbulkan beberapa masalah yang, bertahun-tahun kemudian, masih dicari solusinya.

Metode penipuan berdasarkan deepfake bertenaga AI adalah masalah yang paling mengkhawatirkan.

Perusahaan AI juga terjebak dalam masalah ini karena tidak semuanya memiliki alat yang memungkinkan mereka mengidentifikasi secara akurat saat sebuah file adalah deepfake.

Bagi anda yang masih belum sepenuhnya paham tentang apa itu deepfake, itu adalah konten yang dihasilkan oleh AI di mana wajah atau tubuh seseorang diubah secara digital, biasanya dengan menumpangkannya pada wajah atau tubuh orang lain.

Dengan cara ini, korban tampak terlibat dalam situasi yang sebenarnya tidak pernah mereka alami.

Hal ini juga berlaku untuk berkas audio di mana pelaku kejahatan "mengkloning" suara seseorang untuk membuat mereka mengatakan apa pun yang mereka inginkan.

Di tangan yang tepat, jenis alat ini cukup berguna dan memungkinkan anda untuk mengembangkan kreativitas anda sepenuhnya.

Namun, seiring dengan semakin realistisnya deepfake AI, pelaku kejahatan mulai menggunakannya untuk penipuan mereka.

Awalnya, terdapat kesalahan yang jelas dalam gambar yang dihasilkan AI, sehingga mudah diidentifikasi dengan mata manusia.

Anda hanya perlu melihat hal-hal kecil seperti jari, karena menggambar tangan sulit bahkan untuk AI yang canggih.

Namun, seiring dengan berkembangnya model AI generatif, hasilnya menjadi semakin realistis, dan saat ini, banyak gambar yang dihasilkan AI tidak dapat dibedakan dari kenyataan.

Seolah itu belum cukup, beberapa perusahaan teknologi tidak puas hanya dengan alat pembuat gambar.

Dalam beberapa tahun terakhir, kita bahkan telah melihat model AI pembuat video dengan hasil yang mengesankan.

Bulan ini, ByteDance, perusahaan induk TikTok, meluncurkan model AI pembuat video dengan hasil paling realistis yang pernah kita lihat.

Model yang disebut OmniHuman-1 ini menjanjikan video deepfake yang 10x lebih baik dari sebelumnya.

Para siswa dapat menggunakannya untuk memperoleh gambar pelengkap untuk tugas atau presentasi, dan para seniman dapat memperoleh inspirasi untuk mulai berkarya.

Anda juga dapat membuat gambar hanya untuk bersenang-senang dengan teman-teman anda.

Namun, apa yang terjadi ketika seseorang dengan niat jahat ikut menggunakannya?

Penipuan, manipulasi, pemerasan, dan semua bentuk penipuan yang sudah ada bisa dibuat jauh lebih mudah oleh deepfake AI.

Ada banyak kasus deepfake yang digunakan untuk mencoba menipu atau mengancam, jadi orang harus semakin berhati-hati tentang konten multimedia yang mereka lihat di internet.

Faktanya, meningkatnya kekhawatiran tersebut telah tercermin dalam statistik, karena pencarian online terkait "gambar deepfake" meningkat sebesar 15 persen di seluruh dunia pada tahun 2024.

Lonjakan tersebut terjadi tepat setelah berita tentang hoaks atau penipuan yang menggunakan video atau gambar bertenaga AI muncul.

Beberapa istilah pencarian terkait yang paling populer adalah "cara mendeteksi gambar deepfake" dan "gambar asli vs. gambar yang dibuat AI."

Upaya penipuan atau hoaks berdasarkan deepfake AI kemungkinan akan terus meningkat mulai sekarang.

Bahkan anda dapat bertindak sebagai "aktor jahat" secara tidak sadar.

Anda tidak perlu menjadi orang yang membuat file DeepFake tertentu.

Yang perlu anda lakukan hanyalah menerima gambar, video, atau audio yang dimanipulasi dan membagikannya ke kontak anda atau di jejaring sosial anda seolah-olah itu nyata.

Ini sering kali bukan 100 persen kesalahan anda, karena, seperti yang dikatakan sebelumnya, konten deepfake bisa sangat realistis.

Meskipun banyak deepfake mungkin tidak dapat dibedakan dari kenyataan, ada beberapa langkah yang dapat anda ambil sendiri agar tidak menjadi korbannya.

Yang pertama adalah tetap skeptis terhadap konten media yang melibatkan tokoh masyarakat.

Contohnya, jika seorang aktor mempromosikan mata uang kripto palsu atau seorang politisi berada dalam situasi yang tidak nyata, reaksi pertama anda adalah meragukan keaslian berkas tersebut.

Jika konten tersebut diduga berasal dari tokoh masyarakat tertentu, periksa akun media sosial mereka, karena sering kali, video tokoh masyarakat itu berasal dari akun media sosial mereka sendiri.

Jika anda tidak dapat menemukan konten tersebut di akun media sosial mereka, tetaplah waspada.

Anda juga harus mengaktifkan fitur identifikasi konten AI di perangkat dan aplikasi anda.

Terakhir, ada juga alat-alat deteksi deepfake yang dapat anda gunakan, dan meskipun terkadang alat tersebut mungkin gagal, alat-alat itu biasanya cukup efektif.

Ada beberapa platform serupa yang tersedia, baik yang bersifat publik maupun eksklusif untuk sistem atau perangkat keras tertentu.

Deepware Scanner adalah salah satu yang dapat anda gunakan sendiri secara bebas dari browser.

Yang lainnya, seperti DuckDuckGoose, Intel FakeCatcher, dan Reality Defender, dirancang untuk bisnis atau perusahaan.

Singkatnya, deepfake yang didukung AI akan terus ada, tetapi itu belum tentu hal yang buruk.

Kemampuan kecerdasan buatan yang mengagumkan juga sangat berguna untuk mencari inspirasi tambahan, mengoptimalkan alur kerja, menghemat waktu, dan melepaskan kreativitas anda.

Namun, anda harus menyadari konteks yang sedang kita hadapi dan lebih waspada tentang cara anda menangani konten yang anda konsumsi di internet. (*/Armyanti)

...

Artikel Terkait

wave

Bocoran tentang Seri Galaxy Tab S10 FE: Mengungkap RAM yang Lebih Besar dan Layar yang Lebih Lebar

Bocoran tentang seri Samsung Galaxy Tab S10 FE telah keluar, mengungkapkan informasi menarik tentang RAM dan layarnya

Vivo X200 Ultra Akan Hadir dengan Kamera Canggih yang Dikembangkan Bersama Fujifilm

Vivo X200 Ultra akan segera hadir, kali ini dengan sistem kamera yang lebih canggih, berkat kerja sama Vivo dengan Fujifilm

Infinix Mengumumkan Ponsel Konsep Lipat Tiga Pertamanya, ZERO Series Mini Tri-Fold, yang Ringkas Layaknya Aksesori

Infinix mengumumkan bahwa mereka akan menghadirkan ponsel konsep lipat tiga pertamanya, ZERO Series Mini Tri-Fold

Dua Raksasa Teknologi, Qualcomm dan MediaTek Memasuki Perlombaan 6G, Menyiapkan Teknologi Inovatif yang Menarik

Dua perusahaan teknologi besar, Qualcomm dan MediaTek, bersaing dalam pembuatan teknologi 6G yang akan hadir di masa mendatang

Akhir dari Sebuah Era: Aplikasi Komunikasi Jarak Jauh Skype Akan Dihentikan pada Bulan Mei, Inilah Alasannya

Aplikasi panggilan video jarah jauh, Skype, akan ditutup pada bulan Mei yang akan datang, dan inilah rincian alasannya

Berita Terkini

wave

Inilah Sinopsis Danyang Wingit Jumat Kliwon, Film Horor tentang Unsur Mistis dalam Budaya Jawa yang Dibintangi Celine Evangelista

Danyang Wingit Jumat Kliwon adalah film horor yang dibintangi oleh Celine Evangelista, berfokus pada unsur mistis dalam budaya Jawa

Janggal, Kejati Sulteng Belum Tetapkan Tersangka Dalam Kasus Dugaan Gratifikasi 500 Juta Tiga Proyek Jalan di Parigi Moutong

Sudah disita Kejati ratusan juta dana dugaan hasil gratifikasi, tapi anehnya belum ada tindaklanjut dari pihak kejaksaan.

Jadi Debut Bunda Corla di Layar Lebar, Inilah Sinopsis Mertua Ngeri Kali, Film Drama Komedi yang Lucu sekaligus Menyentuh Hati

Mertua Ngeri Kali adalah film drama komedi yang menghibur sekaligus menyentuh hati, dibintangi Bunda Corla yang kocak

Menyoroti Misteri dan Kepercayaan seputar Gunung Merbabu, Inilah Sinopsis Film Horor Kuncen

Kuncen adalah film horor yang akan hadir di bioskop November mendatang, membawa kisah seputar mitos di Gunung Merbabu

PT Bukit Asam Catat Produksi dan Penjualan Batu Bara Tumbuh, Optimis Hadapi Tekanan Pasar Global

PTBA mencatat produksi 35,90 juta ton hingga kuartal III-2025, didukung efisiensi, penjualan meningkat, permintaan pasar kuat.


See All
; ;