Sve će biti neuronska mreža koja se podučava kako bi otkrila lica slavnih pornactera

Korisnik Reddit pod nadimkom Deepfakes podučavao je neuronsku mrežu kako stvoriti lažne pornografske zvijezde sa slavnim osobama. Sada, da postanete pornografi, nesvjesno, može bilo tko.


Izvor: Matična ploča

Pojavio se online pornografija uz sudjelovanje Gal Gadota. Ali u stvarnosti to nije poznata glumica, već samo njezino lice. Lažni video izrađen je algoritmom strojnog učenja i TensorFlow i Keras knjižnicama. Deepfakes već je objavio videozapise Scarlett Johansson, Macy Williams, Taylor Swift i Aubrey Plaza.

Deepfakes je izvijestio da je upotrijebio Google pretraživanje slika i YouTube videozapise za izradu videozapisa. Dakle, ne samo slavna osoba, već i kolega ili samo slučajna osoba može postati "žrtva". Umjetna inteligencija uspoređuje izvorne fotografije s videozapisom kako bi slika izgledala što vjerodostojnije. Istraživač umjetne inteligencije Alex Champandar izjavio je da dobra, skupo grafička kartica može podnijeti taj zadatak za nekoliko sati, a redovito računalo će to učiniti za nekoliko dana..

Uznemirujuća činjenica je da u ovom slučaju ne postoje samo praktički tehničke prepreke, ali ni nedostatak izvornog materijala. Dakle, od 2015 do 2016, netizens objavio više od 24 milijarde selfies. Na taj način gotovo svaka osoba može biti ugrožena..

Glumica porno Grace Evangeline (Grace Evangeline) u komentarima na matičnu ploču rekla je da to vidi po prvi put. Upoznala je lažne videozapise s poznatim osobama, ali nije tako uvjerljiva. Evangeline vjeruje da je izrada takvih videozapisa bez dopuštenja glumica pogrešna.

Bivša porno glumica Alia Janine (Alia Janine) također je bila nezadovoljna lažnim videozapisima: "Ovo pokazuje da neki ljudi vide samo objekte u ženama koje se mogu manipulirati, a to je potpuni nedostatak poštovanja za pornoaktore i slavne glumice".

Alex Champandar vjeruje da ako netko može postati "žrtva" lažne pornografije, onda ga morate javno objaviti..

"Svatko bi trebao znati kako je lako varati video do te mjere da dugo ne možemo utvrditi da je lažna. Naravno, to bi se moglo učiniti prije, ali trebalo mu je puno resursa i vještina. bilo koji programer s najnovijim računalnim hardverom. " "Svaka tehnologija može se koristiti s lošim namjerama, a dno je koliko je lako i lako koristiti. Ne mislim da je sve veći interes za učenje stroja među običnim ljudima loš", komentirao je Deepfakes o situaciji.