Intel, Deepfake Dedektörlerinin %96 Doğruluğa Sahip Olduğunu Söyledi

Intel, Deepfake Dedektörlerinin %96 Doğruluğa Sahip Olduğunu Söyledi


Vladimir Putin'in Donald Trump'ın benzerliğiyle derin bir şekilde taklit edilen bir videosu.

bir video Vladimir Putin bu, Donald Trump’ın benzerliğiyle derinlemesine taklit edildi.

Deepfake teknolojisi-birinin benzerliğinin dijital olarak bir başkasınınkinin üzerine yerleştirildiği yerde- bazı çok ürkütücü imalar vardır. bilgi onun olduğunu söylüyor FakeCatcher adlı yeni derin sahte algılama teknolojisi, derin sahte videoyu zamanın %96’sında izleyebiliyor.

Intel, FakeCatcher’ın derin sahte videoları tespit etmek için gerçek zamanlı olarak çalışabileceğini duyurdu ve bunun dünyada türünün ilk örneği olduğunu da iddia etti. FakeCatcher görünüşe göre sahte benzerlikleri tespit etmede %96 başarı oranına sahip ve bir videodaki pikselleri tarayarak bir kişinin yüzündeki ince kan akışı mekanikleri hakkında veri topluyor. Daha sonra derin öğrenme yapay zekası, öznenin benzerliğinin gerçek olup olmadığını belirleyebilir. FakeCatcher, Intel araştırmacısı tarafından geliştirilmiştir. Binghamton’daki New York Eyalet Üniversitesi’nden İlke Demir ve Umur Çiftçi, Intel teknolojisini kullanıyor.

“Deepfake videoları artık her yerde. Muhtemelen onları zaten görmüşsünüzdür; ünlülerin aslında hiç yapmadıkları şeyleri yaptığı veya söylediği videolar,” diyor Intel Labs kıdemli personeli İlke Demir’i bir araştırmasında Intel basın açıklaması.

FakeCatcher bir sunucuda barındırılır, ancak web tabanlı bir platform kullanan videolarla arabirim oluşturur. Intel’e göre, teknolojinin yaklaşımı, genellikle bir videoda neyin sahte olduğunu bulmaya çalışan geleneksel derin öğrenme tabanlı dedektörlerin tersi, FakeCatcher ise gerçek olanı arıyor.

bir VentureBeat ile röportaj, Demir, FakeCatcher’ın yaklaşımının insan dokusundaki kan akışındaki değişikliği belirleme yöntemi olan fotopletismografiye (PPG) dayandığını açıkladı. Ekranda gerçek bir insan varsa, damarlarından kan pompalanırken dokuları mikroskobik olarak çok az renk değiştirecektir. Deepfakes, bu değişikliği ten renginde kopyalayamaz (en azından henüz).

Deepfake teknolojisi görünüşte son yıllarda büyüdü. Bu yaz, FBI bildirdi İnternet Suçları Şikayet Merkezine, ilgili şikayetlerde artış olduğunu bildirdi. insanlar uzak işlere başvurmak için derin sahtekarlık kullananlar – özellikle ses sahtekarlığına dikkat ederek. Ağustos ayında, Binance CCO’su Patrick Hillman bir blog yazısında şunu belirtmişti: bilgisayar korsanları onun dijital benzerliğini kopyalıyordu taklit etmek onu toplantılarda



genel-7