Washington Post’un aktardığına nazaran birkaç çift, kendilerini çeşitli nedenlerle yardım hasebiyle arayan çocuklarına para gönderdi, her hassas ailenin yapacağı üzere. Fakat farkında olmadıkları bir sorun vardı; Konuştukları kişi çocukları değil, bir yapay zekaydı.
Yapay zeka tarafından oluşturulmuş ses ile dolandırıcılık
Örneğin Microsoft’un Vall-E aracı yalnızca 3 saniyelik ses klipleri ile epey gerçekçi ve dengeli ses taklitlerini mümkün kılıyor. Üstelik bu küçük ses klipinden farklı tonları (sinirli, heyecanlı vb.) bile üretebiliyor. Emsal bir araç olan ElevenLabs ise çok daha gerçekçi sesler üretebiliyor. Çabucak üstteki Twitter görüntüsünden aracın muvaffakiyetini görebilirsiniz.
Gelinen noktada bu tip dolandırıcılar yahut berbat kullanım için kapsamlı tedbirlerin alınması kaide üzere duruyor. Yalnızca dolandırıcılık olarak da görmemek gerek. Bu tip üretilmiş seslerle birleştirilmiş deepfake görüntüler bilhassa karmaşanın olduğu anlarda önemli sonuçlara neden olabilir. Bankaların ses tabanlı güvenlik özellikleri aşılabilir. Münasebetiyle toplumsal medya platformları kendilerine yüklenen görüntülerde yahut görsellerde yapay zekayı tespit eden araçlara yer verebilir. Halihazırda ChatGPT üzere metin üreten yapay zekâları tespit eden DetectGPT üzere modeller geliştiriliyor.
Yorumlar kapalı.