Deepfakes objasnio AI zbog kojeg su lažni videozapisi previše uvjerljivi

  • Michael Fisher
  • 0
  • 2487
  • 125
Oglas

Vidjeti je vjerovati. Pa, barem je to bio slučaj prije nego što smo shvatili da ljudi mogu liječiti video zapise kako bi se izbacili varalice i prepisivali povijest. Iako smo pronašli načine za uklanjanje većine luđačkih slika, postoji jedan tehnološki razvoj koji tako brzo napreduje da uskoro više ne možemo znati kako je stvarno i što je lažno..

Deepfakes mijenjaju sve što smo smatrali mogućim u pogledu doktoriranih videozapisa. Evo svega što trebate znati o njima ...

Što su Deepfakes?

Izraz deepfakes dolazi od kombinacije riječi “duboko učenje” i “lažni”. To je zato što softver za umjetnu inteligenciju, obučen za sintezu slike i videozapisa, stvara ove videozapise. Ovaj AI može staviti jedan lik (izvor) na videozapis drugog (cilja). Napredniji oblici tehnologije mogu sintetizirati potpuno novi model osobe koristeći se izvornim gestama i slikama ili videozapisom predmeta za koji žele da se utjelovljuju..

Tehnologija može napraviti modele lica na temelju ograničenih vizualnih podataka, poput jedne slike. Međutim, što više podataka AI mora raditi, što je realniji rezultat.

Zbog toga su političari i slavne osobe tako laka meta za deepfakse jer je na mreži dostupno toliko vizualnih podataka koje softver može koristiti. Budući da je softver deepfake dostupan na platformama otvorenog koda, ljudi na Internetu neprestano se usavršavaju i nadograđuju rad drugih..

Porijeklo Deepfake AI tehnologije

Tehnologija koja stoji iza deepfakesa razvijena je u više svrha. Softver slično kao u Photoshopu, ima profesionalne, zabavne i hobističke svrhe. I baš kao što je Photoshop, unatoč tome što autor nije imao zlonamjerne namjere u kreiranju softvera, to nije spriječilo ljude da ga koriste u zlonamjerne svrhe.

Tehnologija zamjene lica u početku se uglavnom koristila u filmskoj industriji. Jedan od najpoznatijih primjera je u filmu Rogue One: Priča o ratnim ratovima iz 2016. godine. U filmu su tvorci filma upotrijebili tehnologiju izmjene lica i video sintezu kako bi rekreirali lik Grand Moffa Tarkina. U filmu je stvorena i mlađa verzija princeze Leia. U oba su slučaja lica izvornih glumaca bila postavljena na glumce koji stoje.

Aplikacije poput Snapchata također koriste tehnologiju zamjene lica za stvaranje zabavnih filtera za korisnike. Programeri koji stoje iza ovih aplikacija kontinuirano usavršavaju otkrivanje i praćenje lica kako bi učinkovitije primijenili te filtre.

U međuvremenu su drugi razvili alate za video sintezu za stvaranje holograma u obrazovne svrhe. Na primjer, jedan je projekt razvio softver za video i sintezu lica kako bi svjedočanstvo preživjelih od holokausta moglo biti predstavljeno kao interaktivni hologram u muzeju.

Zašto Deepfakes čine ljude nervoznima

Kad su ljudi shvatili da su prevaranti i ljudi koji se igraju prijevara koristili Photoshop za stvaranje lažnih slika, morali smo postati skeptičniji prema onome što smatramo dokazom. Srećom, bilo je mnogo načina da se otkriva je li slika lažna, čak i golim okom.

Uz sve to, stvaranje uvjerljive doktorirane slike u Photoshopu relativno je naporno. Ne samo bilo tko može spojiti dvije slike i učiniti ih stvarnim.

Ali deepfakes su različiti. Strojno učenje olakšava život 4 Algoritmi strojnog učenja koji oblikuju vaš život 4 Strojni algoritmi za učenje koji oblikuju vaš život Možda to ne shvaćate, ali strojno učenje je već sve oko vas i može pokazati iznenađujući stupanj utjecaja na vaš život. Ne vjerujete mi? Možda ćete se iznenaditi. , ali u ovom slučaju falsificiranje znatno olakšava. Prvo, softver je široko i slobodno dostupan. Na primjer, FakeApp je popularan izbor za stvaranje deepfakesa. Za primjenu zamjene lica ne trebaju vam napredne vještine, softver će to učiniti za vas.

Budući da AI i dubinsko učenje pomažu u stvaranju dubokih efekata, tehnologija se također poboljšava i postaje uvjerljivija brzinom. Neće proći dugo prije nego ove izmjene budu vidljive golim okom.

U svijetu prepunom lažnih vijesti, uvjerljivi dubinski fesi mogli bi se pokazati kaotičnom silom protiv onoga za što vjerujemo da je istina.

Porast dubokih zvukova također se događa u vrijeme kada sinteza AI glasa brzo napreduje. AI ne samo da može stvoriti lažne videozapise, već može generirati i glasovne modele za ljude.

To znači da vam ne treba impresionator kako bi zvučalo kao da političar daje nevjerovatne izjave. Možete trenirati AI da umjesto toga oponaša njihov glas.

Posljedice Deepfakes-a

Ljudi već upotrebljavaju deepfakse u zlonamjerne svrhe. Ljudi su često koristili FakeApp za stvaranje lažnih videa slavnih glumica angažiranih u sadržajima za odrasle.

Gal Gadot, Daisy Ridley i Emma Watson samo su neke od glumica na meti lažnih videozapisa za odrasle. Ovi deepfakes izmjenjuju lica glumica u videozapise filmskih zvijezda za odrasle.

Iako je nekoliko platformi i određene web lokacije za odrasle zabranilo takve videozapise, svaki dan se pojavljuje više. U stvari, neke web stranice posebno stvaraju deepfake videozapise za odrasle na temelju zahtjeva korisnika.

U većini zemalja još nijedan zakon ne bavi takvom vrstom sadržaja, što otežava kontrolu.

Iako smo još uvijek udaljeni od distopije kojom vladaju dezinformacije i lažni video dokazi koje vidimo u filmovima poput The Running Man, svi smo već previše upoznati s učincima lažnih vijesti Što su lažne vijesti i kako se širi tako Brzo? Što su lažne vijesti i kako se šire tako brzo? Lažne vijesti zasipaju internet, a najgore je što ga većina ljudi ne može prepoznati. .

Deepfakes može biti moćan alat u širenju dezinformacija. Nitko nije uokviren za zločin niti je krivotvorio njihovu smrt dubokim fakama, ali što se događa kad postane teško reći koji su videozapisi zaista stvarni?

Posljedice dubokih zazora koji se koriste u političke svrhe dvostruke su. Prvo, lažne vijesti znatno se lakše šire. Videozapisi su vjerojatniji od teksta ili slika kako bi uvjerili ljude da se nešto izmišljeno zapravo dogodilo.

Ljudi već vjeruju naslove s lažnih web stranica bez dokaza koji potkrepljuju njihovu priču. Odjednom će se pojaviti lažne priče “dokaz” pokazujući političarima da ispovijedaju nepravde ili iznose nečuvene izjave.

S druge strane, duboke oluje mogle bi također ojačati političare kada izvrgavaju odgovornost. Uvijek bi mogli tvrditi da je audio ili videozapis zapravo stvar duboke pogreške.

Kako se borimo protiv gluposti?

Iako se mnoge tehnološke tvrtke bave vremenom kako bi nastale u dubinama, razni ljudi razvijaju alate za borbu protiv zlonamjernih lažnih videozapisa. AI se može boriti protiv hakera i cyber kriminala. Kako će se umjetna inteligencija boriti protiv modernih hakera i cyber kriminala. Kako će se umjetna inteligencija boriti protiv modernih hakera i cyber kriminala, uz nedostatak talenta za cybersecurity i epidemiju cyber kriminala, kako se tvrtke mogu boriti protiv hakera? S umjetnom inteligencijom! , ali je korisno i za otkrivanje zloporabe AI u videozapisima.

Zaklada AI stvorila je dodatak za preglednik pod nazivom Reality Defender kako bi pomogla otkrivanju dubinskih prijevara sadržaja na mreži. Drugi dodatak, SurfSafe, također obavlja slične provjere. Oba ova alata imaju za cilj pomoći korisnicima interneta da razaznaju činjenice od fikcije.

Web stranice za provjeru činjenica poput Snopes također su se proširile na pozivanje dokumenata s video zapisa. Ali još nemaju alate za automatsko otkrivanje dubinskih zvukova.

Čak je i američko Ministarstvo obrane uložilo u softver za otkrivanje dubokih oštećenja. Uostalom, što bi se dogodilo ako bi se na Internetu pojavio uvjerljivi video svjetskog vođe, u kojem je proglašen rat ili lansiran raketa protiv druge zemlje? Vlade trebaju alate za brzu provjeru zakonitosti videozapisa.

Nenamjerne posljedice strojnog učenja

Nema sumnje da AI tehnologija i duboko strojno učenje poboljšavaju naše živote na mnogo načina. Ali tehnologija ima i nenamjerne posljedice.

Iako su loši podaci glavna prepreka algoritmima strojnog učenja, ljudski element također igra ulogu. Teško je predvidjeti kako ljudi mogu koristiti određenu tehnologiju u zlonamjerne svrhe. Više o strojnom učenju i prošlim pogreškama možete saznati u našem vodiču za algoritme strojnog učenja i zašto se pogrešno šalju Što su algoritmi strojnog učenja? Evo kako funkcioniraju Što su algoritmi strojnog učenja? Evo kako rade algoritmi strojnog učenja dizajnirani su kako bi olakšali život i poboljšali sustave, ali mogu poći krivo s lošim posljedicama. , Iako vam je teško identificirati dubinske snimke kao takve, lažne vijesti možete izbjeći pomoću pametnih aplikacija za vijesti 5 pametnih aplikacija za vijesti koje će vam pomoći da izbjegnete lažne vijesti s pouzdanijim izvješćima 5 pametnih aplikacija za vijesti koje će vam pomoći da izbjegnete lažne vijesti s pouzdanijim izvješćima. Želite li pobjeći od lažnih vijesti? Pomoću ovih pametnih aplikacija umjesto toga možete dobiti provjerene činjenice i neutralne vijesti. .




Još ne komentari

O modernoj tehnologiji, jednostavnoj i pristupačnoj.
Vaš vodič u svijetu moderne tehnologije. Naučite kako koristiti tehnologije i uređaje koji nas okružuju svaki dan i naučite kako otkriti zanimljivosti na Internetu.