Linimasa media sosial kita kini dibanjiri oleh ragam video hasil kreasi kecerdasan buatan atau AI. Namun, di tengah banjir konten ini, masih ada satu petunjuk sederhana yang dapat membantu kita mengidentifikasinya.
Kini, era di mana kita harus lebih waspada telah tiba. Kita mungkin akan tertipu, atau bahkan mungkin sudah tertipu. Dalam enam bulan terakhir, generator video AI telah berkembang begitu pesat dan canggih, mengancam untuk mengubah fundamental hubungan kita dengan kamera dan realitas visual. Skenario terburuknya, kita akan terus-menerus terkelabui hingga timbul rasa jengkel dan keraguan mendalam terhadap setiap hal yang kita saksikan. Selamat datang di masa depan yang serba tidak pasti.
Namun, untuk saat ini, masih ada beberapa tanda peringatan yang perlu kita perhatikan. Salah satu petunjuk paling menonjol yang bisa menjadi kunci adalah kualitas gambar. Jika kita menemukan video dengan kualitas visual yang buruk—seperti gambar yang buram, kabur, atau tidak jelas—ini bisa menjadi indikasi kuat bahwa kita sedang menyaksikan video buatan AI.
“Ini adalah salah satu hal pertama yang kami periksa saat menganalisis sebuah video,” ujar Hany Farid, seorang profesor ilmu komputer di University of California, Berkeley. Sebagai pionir dalam bidang forensik digital dan pendiri perusahaan deteksi deepfake GetReal Security, Farid menekankan pentingnya sinyal visual ini.
Sayangnya, kita harus realistis. Alat pencipta video AI terus berinovasi dan menjadi semakin canggih. Saran deteksi kualitas gambar ini diperkirakan akan segera usang, mungkin dalam hitungan bulan, atau bisa juga bertahun-tahun; sangat sulit untuk diprediksi. Kendati demikian, jika kita bersedia memahami nuansanya sejenak, tips ini setidaknya dapat melindungi kita dari jebakan konten AI berkualitas rendah hingga kita benar-benar siap mengubah cara kita memandang kebenaran faktual dalam media visual.
Penting untuk diingat bahwa kualitas buruk bukanlah bukti mutlak. Video AI memang bisa terlihat buruk, tetapi alat AI yang lebih mutakhir juga mampu menghasilkan klip yang indah dan realistis. Di sisi lain, klip berkualitas rendah tidak selalu berarti dibuat oleh AI. “Jika kita melihat sesuatu dengan kualitas yang benar-benar rendah, itu tidak otomatis palsu. Itu juga tidak berarti ada niat jahat di baliknya,” terang Matthew Stamm, profesor dan kepala Laboratorium Multimedia dan Keamanan Informasi di Drexel University, AS.
Intinya adalah, video AI yang buram dan berpiksel rendah justru lebih mungkin menipu kita, setidaknya untuk saat ini. Kondisi ini menjadi peringatan bagi kita semua untuk lebih waspada dan teliti dalam memeriksa setiap konten visual yang kita konsumsi di media sosial.
Farid menjelaskan bahwa generator teks-ke-video terkemuka seperti Veo dari Google dan Sora dari OpenAI masih sering menghasilkan gambar yang inkonsisten, namun bukan dengan kesalahan yang mencolok seperti jari berjumlah enam atau teks yang kacau. Inkonsistensi yang dihasilkan jauh lebih halus. Model-model paling canggih sekalipun saat ini seringkali bermasalah dengan detail seperti tekstur kulit yang terlalu mulus, pola rambut atau pakaian yang aneh dan berubah-ubah, bahkan objek latar belakang yang bergerak secara tidak realistis. Semua detail ini mudah terlewatkan. Ironisnya, semakin jelas gambarnya, semakin besar kemungkinan kita untuk melihat kesalahan AI yang mencolok tersebut.
Hal inilah yang membuat video berkualitas rendah begitu menggoda bagi para pembuat konten AI yang ingin menipu. Misalnya, saat AI diminta membuat video yang menyerupai rekaman dari ponsel lama atau kamera keamanan, AI dapat secara efektif menyamarkan objek-objek atau detail yang mungkin memicu kecurigaan penonton.

Dalam beberapa bulan terakhir, sejumlah video AI telah viral dan berhasil mengelabui jutaan orang. Menariknya, semua video tersebut memiliki kesamaan: kualitas visual yang meragukan. Sebuah video palsu namun menggemaskan tentang kelinci liar melompat di trampolin meraih lebih dari 240 juta penayangan di TikTok. Jutaan individu yang romantis di dunia maya menekan tombol suka pada klip dua orang yang jatuh cinta di kereta bawah tanah New York, hanya untuk kemudian merasa kecewa saat mengetahui bahwa video tersebut sepenuhnya ciptaan AI.
Saya pribadi sempat terkecoh oleh video viral seorang pendeta Amerika di gereja konservatif yang memberikan khotbah mengejutkan dengan pandangan kiri yang radikal. “Miliarder adalah satu-satunya minoritas yang harus kita takuti,” teriaknya dengan aksen selatan, “mereka memiliki kekuatan untuk menghancurkan negara ini!” Saya terkejut dan bertanya-tanya, apakah polarisasi politik kita sudah seburuk itu? Ternyata tidak. Yang ada hanyalah lebih banyak video AI yang berpotensi memanipulasi pandangan kita.
Setiap video viral yang saya sebutkan tadi tampak seolah-olah direkam dengan kamera berkualitas rendah. Kelinci AI itu? Terlihat seperti rekaman CCTV murah yang diambil di malam hari. Pasangan di kereta bawah tanah? Bertekstur piksel. Pendeta imajiner itu? Video tersebut terlihat seperti diperbesar terlalu jauh dari resolusi aslinya. Dan ternyata, video-video tersebut juga memiliki petunjuk lain.
“Tiga hal utama yang perlu diperhatikan adalah resolusi, kualitas, dan durasi,” kata Farid, menunjuk durasi sebagai petunjuk yang paling mudah dikenali. “Sebagian besar video AI sangat pendek, bahkan lebih singkat dari video biasa yang kita lihat di TikTok atau Instagram yang umumnya berdurasi 30 hingga 60 detik. Kebanyakan video yang diminta untuk diverifikasi hanya berdurasi enam, delapan, atau 10 detik.”

Durasi video AI yang pendek bukan tanpa alasan. Proses menghasilkan video AI terbilang mahal, sehingga sebagian besar alat hanya mampu memproduksi klip singkat. Selain itu, semakin panjang durasi video, semakin besar kemungkinan AI membuat kesalahan yang mudah terdeteksi. “Kita memang bisa menggabungkan beberapa video AI, tetapi kita akan melihat potongan atau transisi yang mencurigakan setiap delapan detik atau lebih,” tambah Farid.
Dua faktor lainnya, resolusi dan kualitas, saling terkait namun memiliki perbedaan signifikan. Resolusi mengacu pada jumlah atau ukuran piksel dalam gambar, yang menentukan ketajaman detail. Sementara itu, kompresi adalah proses yang mengurangi ukuran file video dengan menghilangkan detail, seringkali menghasilkan pola blok dan tepi yang buram, yang secara efektif menurunkan ‘kualitas’ visual.
Farid mengungkapkan bahwa video palsu berkualitas rendah justru sangat meyakinkan, sehingga para penipu sengaja menurunkan kualitas karya mereka. “Jika saya ingin menipu orang, apa yang harus saya lakukan? Saya akan membuat video palsu, lalu mengurangi resolusinya agar masih bisa dilihat namun detail-detail kecilnya tidak terlihat. Kemudian saya akan menambahkan kompresi yang dapat menyamarkan objek atau inkonsistensi apa pun,” jelas Farid. “Ini adalah teknik yang umum digunakan.”
Namun, masalah yang lebih besar sedang membayangi. Saat Anda membaca artikel ini, raksasa teknologi terus menginvestasikan miliaran dolar untuk mengembangkan video AI yang semakin realistis dan tak dapat dibedakan dari aslinya. “Saya punya kabar buruk. Jika tanda-tanda visual ini ada sekarang, mereka tidak akan bertahan lama,” kata Stamm. “Saya memperkirakan bahwa tanda-tanda visual ini akan hilang dari video AI dalam dua tahun ke depan, setidaknya yang jelas-jelas terlihat, karena mereka sudah hampir menghilang dari gambar yang dihasilkan AI. Dampaknya, kita tidak lagi bisa sepenuhnya mempercayai mata kita sendiri.”
Kendati demikian, bukan berarti semua harapan untuk menemukan kebenaran dalam video telah sirna. Ketika para peneliti seperti Farid dan Stamm memverifikasi sebuah konten, mereka menggunakan teknik yang jauh lebih canggih. “Saat kita menghasilkan atau memodifikasi video, ada jejak statistik kecil yang tertinggal, yang tidak dapat dilihat oleh mata telanjang kita. Analoginya seperti sidik jari di tempat kejadian perkara,” jelas Stamm. “Kami menyaksikan kemunculan teknik-teknik baru yang dapat membantu mencari dan mengungkap jejak-jejak ini.”

Meski demikian, metode ini pun memiliki keterbatasan. Terkadang, distribusi piksel dalam video palsu buatan AI mungkin berbeda dengan video asli, misalnya. Namun, faktor-faktor seperti ini tidak selalu dapat diandalkan secara konsisten.
Sebagai respons terhadap tantangan ini, perusahaan teknologi juga sedang mengembangkan standar baru untuk memverifikasi informasi digital. Pada dasarnya, kamera dapat menyisipkan informasi ke dalam file saat mereka menciptakan gambar, berfungsi sebagai penanda untuk membuktikan keasliannya. Dengan cara yang sama, alat AI dapat secara otomatis menambahkan detail serupa ke video dan gambar yang mereka hasilkan untuk menandai bahwa konten tersebut adalah palsu. Stamm dan para ahli lainnya meyakini bahwa upaya ini dapat sangat membantu dalam membedakan keaslian konten.
Namun, solusi sebenarnya, menurut ahli literasi digital Mike Caulfield, adalah kita harus mulai mengubah cara berpikir kita tentang apa yang kita lihat secara online. Mencari petunjuk yang ditinggalkan oleh AI bukanlah “saran yang tahan lama”, karena petunjuk tersebut terus berevolusi dan berubah. Sebaliknya, Caulfield menyarankan agar kita meninggalkan gagasan bahwa sebuah video atau gambar memiliki makna tertentu tanpa konteks yang jelas.
“Pandangan saya adalah bahwa secara umum, video akan menjadi seperti teks dalam jangka panjang, di mana asal-usul video—bukan fitur permukaan—akan menjadi yang paling penting, dan kita sebaiknya bersiap untuk perubahan ini,” kata Caulfield. Faktanya, kita tidak akan pernah membaca sepotong teks dan langsung menganggapnya benar hanya karena seseorang menuliskannya. Jika ada keraguan, kita akan menyelidiki sumber informasi tersebut. Jika dulu video dan foto dianggap berbeda karena sulit dipalsukan atau dimanipulasi, kini era itu sudah berlalu.
Yang terpenting sekarang adalah dari mana asal konten tersebut, siapa yang mengunggahnya, bagaimana konteksnya, dan apakah telah diverifikasi oleh sumber yang terpercaya. Pertanyaannya adalah kapan (atau apakah) kita semua akan sepenuhnya memahami fakta krusial ini.
“Jika saya boleh sedikit berlebihan, saya pikir ini adalah tantangan keamanan informasi terbesar abad ke-21,” kata Stamm. “Namun, masalah ini baru berusia beberapa tahun. Jumlah orang yang bekerja untuk mengatasinya relatif kecil, meskipun terus tumbuh dengan cepat. Kita akan membutuhkan kombinasi solusi, pendidikan, kebijakan cerdas, dan pendekatan teknologi yang bekerja bersama-sama. Saya tidak siap untuk menyerah.”
Artikel bahasa Inggris berjudul The number one sign you’re watching an AI video dapat Anda baca di BBC Future.
- Apakah video kucing AI yang viral akan jadi masa depan internet?
- Orang-orang yang menggunakan AI untuk berbicara dengan Tuhan
- Ilmuwan Indonesia di jantung AI – Perjalanan dari Bandung ke Oxford, hingga markas DeepMind
- Cerita orang-orang yang meminta saran ke AI soal cinta dan hubungan asmara
- Apakah AI telah mengubah cara belajar di universitas menjadi lebih baik?
- Dari chatbot hingga mainan pintar – Mengapa AI berkembang begitu pesat di China?
- Penipuan deepfake: Identitas perempuan India dicuri untuk konten AI erotis
- Kecerdasan buatan menghabiskan pasokan air minum kita, buat apa?
- Bagaimana mengetahui sebuah foto telah dimanipulasi?
Ringkasan
Video hasil kreasi AI kini membanjiri media sosial, namun terdapat beberapa petunjuk untuk mengidentifikasinya. Salah satu indikasi utama adalah kualitas gambar yang buruk, seperti gambar buram atau tidak jelas. Meskipun begitu, perlu diingat bahwa kualitas buruk bukan bukti mutlak karena alat AI terus berkembang dan video berkualitas rendah tidak selalu berarti dibuat oleh AI.
Selain kualitas gambar, durasi video juga bisa menjadi petunjuk, di mana video AI cenderung lebih pendek karena biaya produksi dan potensi kesalahan yang meningkat seiring durasi. Para ahli menekankan pentingnya memeriksa resolusi dan kompresi video, serta mempertimbangkan asal-usul konten dan konteksnya. Standar verifikasi informasi digital dan pendekatan multi-faceted diperlukan untuk mengatasi tantangan keamanan informasi yang terus berkembang ini.