Dalam video yang baru-baru ini dirilis, Brett Kavanaugh tampak tegang saat berbicara di depan anggota Kongres Amerika Serikat. “Ini waktunya untuk meluruskan,” dia memulai. Beberapa menit berikutnya, Hakim Agung mengakui ada kemungkinan dia melakukan pelecehan seksual dan mengungkapkan penyesalan atas caranya menanggapi tuduhan Christine Blasey Ford dalam karyanya kesaksian. “Untuk itu, saya bertanggung jawab dan saya minta maaf.”
Masalahnya, adegan ini tidak nyata. Rekamannya telah direkayasa, dan Kavanaugh tidak pernah benar-benar mengatakan hal itu.
Isi
- Deepfake sampai Anda berhasil
- Lebih dari sekedar meme dan misinformasi
- Memberi tip pada timbangan
Bagaimana jika Brett Kavanaugh punya perhitungan? | Kotak Makan Siang Tak Terbatas
Kenyataannya, Kavanaugh membantah dan mengabaikan tuduhan tersebut dan berperan sebagai korban. Video yang dijelaskan di atas berasal dari serangkaian klip palsu yang membayangkan masa depan yang memecah belah publik tokoh-tokoh seperti Kavanaugh, Alex Jones, dan Mark Zuckerberg bertanggung jawab atas masa lalu mereka pelanggaran.
Video yang Direkomendasikan
Serial yang diberi judul Perhitungan Mendalam, adalah gagasan Stephanie Lepp — seorang seniman yang bertujuan untuk menciptakan perubahan positif di dunia dengan memanfaatkan teknologi deepfake untuk membantu orang melihat dan membayangkan versi diri mereka yang lebih baik.
Ini adalah proyek yang besar dan agak abstrak, tetapi Lepp tidak sendirian dalam usahanya. Dia adalah bagian dari sekelompok pembuat konten yang bertujuan menggunakan teknologi deepfake untuk berbuat baik.
Deepfake sampai Anda berhasil
Deepfakes memiliki perjalanan kontroversial sejauh ini. Teknologi ini telah digunakan secara luas untuk tujuan jahat seperti pembuatan pornografi dan kampanye disinformasi, Hal ini menyebabkan teknologi ini mendapat sorotan tajam baik dari pemerintah maupun perusahaan teknologi yang takut akan teknologi tersebut persenjataan.
“Mengingat sebagian besar deepfake bersifat jahat, dapat dimengerti jika kami fokus pada persenjataannya,” kata Lepp. “Tetapi fokus ini menghalangi kita untuk mewujudkan potensi prososial mereka. Secara khusus, deepfake dapat digunakan untuk tujuan pendidikan, kesehatan, dan perubahan sosial.”
Dia berpendapat bahwa, serupa dengan bagaimana realitas virtual digunakan untuk membantu pasien pulih dari cedera otak membiarkan mereka berinteraksi dengan ingatan virtual, deepfake dapat digunakan untuk penyembuhan psikologis pada trauma korban. Misalnya, bayangkan sebuah skenario di mana dokter dapat membuat skrip palsu tentang masa depan seorang pecandu yang sadar dan menggunakannya untuk mendorong mereka menuju jalur pemulihan.
Konsepnya, setidaknya secara teori, masuk akal. Jonathan Gratch, direktur penelitian manusia virtual di Institut Teknologi Kreatif Universitas Southern California, telah menemukan bahwa melihat diri Anda sendiri di VR bisa sangat memotivasi, dan konsep yang sama dapat dengan mudah diterapkan pada deepfake rekaman. Dia menyarankan bahwa jika wajah pasien secara halus menyatu dengan wajah dokternya, kemungkinan besar pasien akan mengikuti saran dokter.
Lebih dari sekedar meme dan misinformasi
Terlepas dari kenyataan bahwa penerapan deepfake yang negatif cenderung mendapat lebih banyak perhatian, penerapan positif seperti yang dilakukan Lepp terus meningkat. Dalam beberapa tahun terakhir, teknologi ini telah muncul di bidang bercerita, proyek prososial, dan banyak lagi.
Project Revoice: Membantu pendiri Ice Bucket Challenge ini mengambil kembali suaranya dari ALS
Asosiasi ALS Penerimaan Proyek, misalnya, memungkinkan pasien amyotrophic lateral sclerosis yang kehilangan kemampuan berbicara untuk terus menggunakan suaranya. Bagaimana? Dengan menggunakan deepfake untuk membuat trek vokal sintetis yang dipersonalisasi dan dapat diputar sesuai permintaan dengan papan suara.
Dalam proyek terpisah dari organisasi nirlaba antimalaria Malaria Harus Mati, atlet selebriti David Beckham menyampaikan pesan dalam sembilan bahasa (dan suara) yang berbeda berkat audio dan video palsu yang membuat bibirnya cocok dengan kata-katanya.
David Beckham berbicara sembilan bahasa untuk meluncurkan Petisi Suara Malaria Harus Mati
Dalam salah satu kampanye yang sangat mencolok di awal tahun 2020, Pusat Virtualitas Tingkat Lanjut Institut Teknologi Massachusetts berupaya mengedukasi masyarakat mengenai misinformasi dengan membuat video palsu tentang mantan Presiden AS Richard M. Nixon menyampaikan pidato darurat yang ditulis pada tahun 1969 jika awak Apollo 11 tidak dapat kembali dari bulan.
Iklan layanan masyarakat dan kampanye kesadaran semacam ini hanyalah puncak gunung es. Alat deepfake juga membantu menyederhanakan proses dalam industri hiburan menuntut peralatan kelas atas dan sumber daya yang memakan waktu, seperti penghilangan penuaan, kloning suara, dan banyak lagi lagi. Setiap wajah di a video musik terbaru oleh The Strokes palsu, misalnya, sehingga anggota band yang berusia sekitar 40 tahun terlihat seperti berusia 20 tahun.
Ohad Fried, dosen senior ilmu komputer di Pusat Interdisipliner Israel Herzliya, mengatakan hal itu berkat deepfake, “apa yang dulunya membutuhkan waktu bertahun-tahun bagi artis, kini dapat dicapai oleh usaha kecil yang mandiri studio. Hal ini selalu menjadi kabar baik bagi keberagaman dan kualitas media yang kita konsumsi.”
Memberi tip pada timbangan
Namun, potensi teknologi deepfake untuk menimbulkan kerugian – terutama karena aksesnya semakin mudah – masih menjadi kekhawatiran. Aviv Ovadya, pendiri Thoughtful Technology Project, setuju bahwa kemampuan untuk menciptakan media sintetis dapat memberikan “banyak hal positif dampaknya, untuk bercerita, bagi penyandang disabilitas, dan dengan memungkinkan komunikasi yang lebih lancar dalam berbagai bahasa.” Tapi diwaktu yang sama, Ia memperingatkan bahwa masih banyak potensi kerugian ketika teknologi sudah menjadi hal yang umum dan masih banyak upaya yang harus dilakukan untuk meminimalkan dampak buruk tersebut. risiko.
“Bahkan kasus penggunaan positif ini secara tidak sengaja dapat menyebabkan kerugian yang nyata dan signifikan,” katanya kepada Digital Trends. “Kutipan dari karya seni yang mencoba menciptakan empati juga dapat diambil di luar konteks dan disalahgunakan.”
“Tujuannya adalah untuk membangun teknologi ini dengan cara yang dapat memitigasi dampak negatif tersebut sebanyak mungkin.”
Para ahli telah berulang kali menyuarakan seruan untuk menyalurkan lebih banyak sumber daya ke dalam program deteksi dan pedoman etika resmi – meskipun intervensi hukum pada akhirnya dapat menghambat kebebasan berpendapat. Namun belum ada yang yakin arah mana yang akan diambil oleh deepfake. Seperti teknologi baru lainnya, akan ada titik di mana deepfake akan mencapai keseimbangan dan tanggung jawab akan ditanggung oleh perusahaan teknologi, pembuat kebijakan, dan pencipta untuk memastikan skalanya tetap mengarah ke sisi yang baik.
Ovadya juga menyarankan untuk membatasi aksesibilitas alat deepfake untuk umum sampai para peneliti mampu melakukannya “Selesaikan beberapa benteng yang kita perlukan untuk melindungi masyarakat kita dari potensi dampak negatif dampak. Tujuannya adalah untuk membangun teknologi ini dengan cara yang paling tidak memitigasi dampak negatif tersebut.”
Namun, untuk saat ini, Lepp akan menghabiskan waktunya berfokus pada protagonis deepfake berikutnya: Donald Trump dan pidato konsesinya.
Rekomendasi Editor
- Penghargaan Tech For Change CES 2023 dari Tren Digital
- Sentuhan terakhir: Bagaimana para ilmuwan memberi robot indra peraba yang mirip manusia
- Baterai baru IBM mungkin mengungguli lithium-ion, dan tidak menggunakan mineral konflik
- Menunggu di depan mata: Bagaimana drone merevolusi perjuangan melawan kelaparan
- Stallone di Terminator 2? Bagaimana orang iseng palsu mengubah sejarah perfilman