Yapay zeka uygulamasıyla üretilen videolara uyarı

Anadolu Üniversitesi Sosyal Medya ve Dijital Güvenlik Eğitim, Uygulama ve Araştırma Merkezi (SODİGEM) Uzmanı Dr. Öğr. Üyesi Serap Uğur, fotoğraflardan gerçekçi insan videoları üretme yeteneğine sahip, yapay zeka destekli “OmniHuman-1” adlı uygulamaya ilişkin, “Bu model tek kare fotoğrafla çok gerçekçi video üretebildiği için sosyal medya hesaplarında paylaşılan tek bir görsel bile kullanılarak sahte videolar üretilebilir ki bu da bireylerin mahremiyetinin ihlali demekti.” ifadelerini kullandı.

Dr. Öğr. Üyesi Uğur, yaptığı yazılı açıklamada, “OmniHuman-1″le üretilen videoların etik yansımalarını ve sektörlere etkisini değerlendirdi.

“OmniHuman-1″in insan animasyonu alanında önemli yenilikler sunduğuna değinen Uğur, bu uygulamanın hareket verilerini eğitim sürecine dahil ederek, yüz ve vücut hareketlerini daha doğal ve gerçekçi bir şekilde canlandırdığını vurguladı.

Uygulamanın getirdiği yeniliklerin yanı sıra riskler de taşıdığına değinen Uğur, şunları kaydetti:

“OmniHuman-1’in yüz ve vücut hareketlerini daha doğal gösterebiliyor ve bir kare fotoğraftan tam vücut görünümüne kadar farklı açılardan insan videoları ve animasyonları oluşturabiliyor. Üstelik bu model, yalnızca konuşma hareketlerini değil şarkı söyleme ve insan-nesne etkileşimleri gibi detayları da işleyebiliyor. Bu da çeşitli senaryolarda daha gerçekçi ve yüksek kaliteli sonuçlar sunmasını sağlıyor. OmniHuman-1’in gerçekçi insan videoları üretme yeteneği, kötü niyetli kişiler tarafından yanıltıcı veya sahte içerik oluşturmak için kullanılabilir. Tek bir görüntü ve ses kaydı ile gerçekçi videolar oluşturma kapasitesi, kişilerin izni olmadan onların dijital temsillerinin yaratılmasına dolayısıyla gizlilik ihlallerine yol açmasına neden olabilir. Ayrıca bu tür teknolojilerin kullanımı, özellikle sahte videoların oluşturulması ve yayılması konusunda etik tartışmalara yol açabilir.”

“Deep Fake tespit programlarının geliştirilmesi gerekiyor”

Uğur, OmniHuman-1’in insan animasyonu teknolojisinde önemli ilerlemeler sağlasa da bu tür yapay zeka modellerinin kullanımında etik ve güvenlik konularına dikkat edilmesinin büyük önem taşıdığını vurguladı.

“Uygulama aracılığıyla da kişilerin yüzleri ve sesleri, yapay zeka ile izinsiz bir şekilde çoğaltılabiliyor ve kötü niyetli amaçlarla kullanılma riski taşıyor.” ifadelerini kullanan Uğur, şöyle devam etti:

“OmniHuman-1′ adlı yapay zeka destekli uygulamayla tek kare fotoğrafla çok gerçekçi video üretebildiği için sosyal medya hesaplarında paylaşılan tek bir görsel bile kullanılarak sahte videolar üretilebilir ki bu da bireylerin mahremiyetini ihlali demektir. Ayrıca kişilerin kimliklerinin taklit edilmesi yoluyla dolandırıcılığa ve sahte haberlerin yayılmasına da yol açabilir. Bundan korunmak için ise bireylerin verilerinin korunmasına yönelik Avrupa’daki Genel Veri Koruma Tüzüğü (GDPR) gibi kapsamlı veri koruma yasaları gibi yasal düzenlemeler, dijital kimlik doğrulama sistemlerinin geliştirilmesi gibi önlemler gerekiyor. Bununla birlikte etik ihlallerin önüne geçilmesi ve toplumun bilinçlendirilmesi için eğitimler düzenlenmesi, hükümetler ve platformların yapay zeka tarafından üretilmiş içeriklere bir ‘etiketleme’ zorunluluğu getirmesi, Deep Fake tespit programlarının geliştirilmesi de uygulanabilecek önlemler arasında yer alıyor.”

“Dezenformasyon riski artış gösterebilir”

OmniHuman-1 gibi yapay zeka tabanlı insan animasyonu sistemlerinin getirdiği yenilikler ve risklerden etkilenebilecek sektörler arasında medya ve haber sektörünün yer aldığına değinen Uğur, şunları bildirdi:

“Model, yapay zeka haber sunucuları ile 7/24 kesintisiz üstelik aynı anda farklı dillerde haber sunumundan, arşiv görsellerinin hareketlendirilerek canlandırılmasına kadar geniş bir uygulama alanına sahip. Bununla birlikte World Economic Forum tarafından yayınlanan 2024 Küresel Riskler Raporu’nda da iki yıllık süreç için ilk sırada yer alan dezenformasyon riski bu modelle artış gösterebilir. Vefat eden oyuncuların yeniden filmlerde yer alabilmesini sağlayabilecek, iş süreçlerinde birçok farklı aşamada tasarruf sağlayacak gibi görünen model, aynı zamanda gerçek aktörler yerine modelle oluşturulan karakterlerin, dublörlerin hatta seslendirmenlerin kullanımını da sağlayabilir. Ancak bu durum sektörde farklı iş kulvarlarında insan kaynağının mesleki kaybına da yol açabilir.”

Uğur, modelin eğitim alanında tarihten fiziğe geniş bir yelpazede öğrenenin öğrenme ihtiyaçlarına göre oluşturulacak sanal öğretmenlerin kullanımının da benzer kolaylıkları olduğu gibi riskleri de beraberinde getireceğinin altını çizdi.

Related Posts

Gökyüzünün yeni Fatihi çığır açacak! Hayal gerçek oldu

Polonya’nın yenilikçi teknoloji sahnesinde bir devrim yükseldi. Volonaut Airbike, dünyanın ilk gerçek uçan motosikleti olarak gökyüzüne damga vurmaya hazırlandı. Polonyalı mucit ve Jetson ONE’ın oluşturucu Tomasz Patan tarafından tasarlanan bu tek …

Konsol satışlarına GTA 6 ertelemesi darbesi

GTA 6’nın çıkışının gelecek yılın mayıs ayına ertelenmesi konsol tarafını da etkileyecek gibi görünüyor.

Otomotiv endüstrisi geçen ay 3,1 milyar doların üzerinde ihracat yaptı

Türkiye otomotiv endüstrisi, nisan ayında 3 milyar 146 milyon dolarlık ihracata imza attı.

ABD, Google’ın reklam tekelini kırmak istiyor!

ABD Adalet Bakanlığı, Google’a karşı yürüttüğü tekel davasında yeni bir aşamaya geçti. Teknoloji devinden, reklam sektöründeki birçok varlığını satması isteniyor. Mahkemenin daha önceki kararında, Google’ın bu alandaki hakimiyetinin rekabete zarar …

İnce yapılı iPhone 17 Air için Apple’ın planları var

Apple, yeni bir tasarımla sunmayı planladığı iPhone 17 Air modeli için yeni bir iddia ortaya atıldı. Telefonun bataryası 1 günü çıkartamayacak.

YouTube, mini oynatıcı tasarımını değiştiriyor!

YouTube, Android uygulamasındaki mini oynatıcı arayüzünü bir kez daha yeniliyor. Geçtiğimiz yıl yaptığı değişiklikle daha büyük ve işlevsel bir mini oynatıcı sunan platform, aldığı yoğun eleştiriler sonrasında, bu tasarımı geri çekiyor ve daha sade …

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir