Namai Verslas Ai ir mašininis mokymasis išnaudojamas, giluminius, dabar sunkiau aptinkamus

Ai ir mašininis mokymasis išnaudojamas, giluminius, dabar sunkiau aptinkamus

Turinys:

Video: Zeitgeist: Moving Forward (2011) (Lapkritis 2024)

Video: Zeitgeist: Moving Forward (2011) (Lapkritis 2024)
Anonim

Kai eisime į kitą prezidento rinkimų kampanijos sezoną, norėsite saugotis galimo pavojaus, kurį suklastoti internetiniai vaizdo įrašai sukelia dirbtinio intelekto (AI) ir mašinų mokymosi (ML) keliami pavojai. Naudodamiesi AI programine įranga, žmonės gali kurti giluminius (trumpai tariant, „giliai mokosi ir netikri“) vaizdo įrašus, kuriuose ML algoritmai naudojami veido keitimui, kad būtų sukurta iliuzija, kad kažkas pasakė tai, ko nesakė, arba yra kažkas, ką jie vadina. vėl ne. „Deepfake“ vaizdo įrašai rodomi įvairiose arenose, pradedant pramogomis ir baigiant politika, ir baigiant verslo pasauliu. Vaizdo klipai ne tik gali neteisėtai įtakoti rinkimus naudodamiesi melagingomis žinutėmis, bet ir gali sukelti asmeninį gėdą ar sukelti klaidinančių prekės ženklo pranešimų, jei, tarkime, jie rodo generalinį direktorių, skelbiantį apie gaminio paleidimą ar įsigijimą, kuris iš tikrųjų neįvyko.

Gilūs fakelai yra AI kategorijos, vadinamos „Generative Adversarial Networks“ arba GAN, dalis, kurioje du neuroniniai tinklai konkuruoja kurdami fotografijas ar vaizdo įrašus, kurie atrodo tikri. GAN sudaro generatorius, kuris sukuria naują duomenų rinkinį, pavyzdžiui, netikrą vaizdo įrašą, ir diskriminatorius, kuris naudoja ML algoritmą sintetinti ir lyginti duomenis iš tikrojo vaizdo įrašo. Generatorius toliau bando sintetinti suklastotą vaizdo įrašą su senu, kol diskriminatorius negali pasakyti, kad duomenys yra nauji.

Kaip Steve'as Grobmanas, „McAfee“ vyresnysis viceprezidentas ir vyriausiasis technologijų pareigūnas (CTO), atkreipė dėmesį į 2019 m. Kovo mėn. RSA konferenciją San Fransiske, suklastotos nuotraukos buvo maždaug nuo fotografijos išradimo. Jis sakė, kad nuotraukų keitimas buvo paprasta užduotis, kurią galite atlikti tokioje programoje kaip „Adobe Photoshop“. Bet dabar šio tipo pažangias redagavimo galimybes taip pat perkeliama į vaizdo įrašą ir jie tai daro naudodamiesi labai pajėgiomis ir lengvai prieinamomis programinės įrangos priemonėmis.

Kaip kuriami giluminiai vaizdai

Nors suprasti AI sąvokas yra naudinga, norint sukurti giluminio vaizdo įrašą nebūtina būti duomenų žinovu. Anot Grobmano, tai tiesiog reikia vykdyti kai kurias instrukcijas internete. RSA konferencijoje 2019 (žr. Vaizdo įrašą aukščiau) jis paviešino gilų vaizdo įrašą kartu su daktaru Celeste Fralick, vyriausiuoju duomenų žinovu ir „McAfee“ vyresniuoju vyriausiuoju inžinieriumi. Vaizdo įrašas giliai iliustruoja šios technologijos keliamą grėsmę. Grobmanas ir Fralickas parodė, kaip vaizdo įraše esantis valstybės pareigūnas sakydamas kažką pavojingo gali suklaidinti visuomenę manydamas, kad žinia yra tikra.

Norėdami sukurti savo vaizdo įrašą, Grobmanas ir Fralickas atsisiuntė „deepfake“ programinę įrangą. Tada jie nufilmavo vaizdo įrašą, kuriame Grobmanas paliudijo prieš JAV senatą 2017 m. Ir Fralicko burną uždėjo ant Grobmano.

„Aš sukūriau ir treniravau ML modelį, kuris man leido sukurti laisvai prieinamus komentarus. Tai leido man sukurti gilų vaizdo įrašą su žodžiais iš burnos“, - sakė Fralickas RSA auditorijai iš scenos. Fralickas tęsė, kad gilios klaidos vaizdo įrašai gali būti naudojami socialiniam išnaudojimui ir informaciniam karui.

Norėdami sukurti gilų netikrą vaizdo įrašą, Grobmanas ir Fralickas naudojo įrankį, kurį sukūrė „Reddit“ vartotojas, pavadinimu „FakeApp“, kuriame naudojami ML algoritmai ir nuotraukos, norint pakeisti veidus vaizdo įrašuose. Jų RSA pristatymo metu Grobmanas paaiškino kitus veiksmus. „Mes padalijome vaizdo įrašus į nejudančius vaizdus, ​​ištraukėme veidus ir juos sutvarkėme, išrūšiuodami ir išvalydami„ Instagram “.

Python scenarijai leido McAfee komandai sukurti judesius burnoje, kad Fralicko kalba atitiktų Grobmano burną. Tada jiems reikėjo parašyti keletą pasirinktinių scenarijų. Sukurti įtikinamą gilųjį užrašą iššūkis yra tada, kai tokios savybės kaip lytis, amžius ir odos atspalvis nesutampa, teigė Grobmanas.

Tada jis ir Fralickas panaudojo galutinį AI algoritmą, kad suderintų Grobmano vaizdus, ​​kurie liudija prieš Senatą, su Fralicko kalba. Grobmanas pridūrė, kad šiuos ML algoritmus išmokyti reikėjo 12 valandų.

„McAfee“ apibūdino veiksmus, kurių ji ėmėsi kurdama vaizdo klipą, parodytą 2019 m. RSA konferencijoje. Tam buvo naudojama „FakeApp“ programinė įranga, vadinama „FakeApp“, ir ML modelių mokymas, kad Grobmano vaizdo įrašas būtų pakeistas Fralicko kalba. (Vaizdo kreditas: „McAfee“).

Giluminių padarinių pasekmės

Hakerių sukurti gilios klaidos vaizdo įrašai gali sukelti daugybę problemų: nuo vyriausybės pareigūnų, skleidžiančių melagingą dezinformaciją, iki garsenybių, kurių gėdijamasi dėl vaizdo įrašų, kurių jie iš tikrųjų nebuvo, iki bendrovių, kurios kenkia konkurentų vertybinių popierių rinkai. Suvokdami šias problemas, rugsėjo mėn. Įstatymų leidėjai nusiuntė laišką JAV nacionalinės žvalgybos direktoriui Danieliui Coatsui, kad šis paprašytų peržiūrėti giluminių bangų keliamas grėsmes. Laiške perspėta, kad tokios šalys kaip Rusija gali pasitelkti gilų paspaudimą socialinėje žiniasklaidoje skleisti melagingą informaciją. Gruodžio mėn. Įstatymų leidėjai įvedė 2018 m. Kenkėjiškų gilių klastočių uždraudimo įstatymą, kad uždraustų sukčiavimą, susijusį su „garso ir vaizdo įrašais“, kuriuose nurodomos gilios klastotės. Lieka išsiaiškinti, ar sąskaita praeis.

Kaip minėta, įžymybės gali patirti gėdą dėl vaizdo įrašų, kuriuose jų veidai buvo uždedami ant pornografijos žvaigždžių veidų, kaip buvo Gal Gadoto atveju. Arba įsivaizduokite, kad generalinis direktorius tariamai skelbia produktų naujienas ir nuskandina bendrovės atsargas. Apsaugos specialistai gali naudoti ML aptikti tokio tipo išpuolius, tačiau jei jie nebus laiku aptikti, jie gali padaryti nereikalingą žalą šaliai ar prekės ženklui.

„Jei naudojatės giliais netikėjimais, jei žinote, ką darote, ir žinote, kam nukreipti, tikrai galite sugalvoti įtikinamą vaizdo įrašą, kad padarytumėte didelę žalą prekės ženklui“, - sakė gydytojas Chase'as Cunninghamas, „Forrester Research“ vyriausiasis analitikas.. Jis pridūrė, kad platindami šias žinutes „LinkedIn“ ar „Twitter“ ar naudodamiesi roboto forma „jūs galite sutriuškinti bendrovės akcijas, remdamiesi visišku netikru vaizdo įrašu, be daug pastangų“.

Naudodami vaizdo įrašus, kurie yra labai netikri, vartotojai gali būti apgauti, kad jie tiki, jog produktas gali padaryti tai, ko negali. Cunninghamas pažymėjo, kad jei didžiojo automobilių gamintojo generalinis direktorius klaidingame vaizdo įraše pasakė, kad įmonė nebegamins dujomis varomų transporto priemonių, o paskui tą vaizdo įrašą paskleis „Twitter“ ar „LinkedIn“, tada šis veiksmas gali lengvai sugadinti prekės ženklą.

„Įdomu, kad iš mano tyrimų žmonės per 37 sekundes priima sprendimus, remdamiesi antraštėmis ir vaizdo įrašais, sakė Cunninghamas.“ Taigi, galite įsivaizduoti, jei galite gauti vaizdo įrašą, kuris trunka ilgiau nei 37 sekundes, galite priversti žmones apsispręsti remiantis faktinis ar ne. Ir tai baugina “.

Kadangi socialinė žiniasklaida yra pažeidžiama vieta, kurioje vaizdo įrašai, kurių vaizdo įrašai yra labai netikri, gali tapti virusiniai, socialinės žiniasklaidos svetainės aktyviai stengiasi kovoti su gilių klaidų grėsme. Pvz., „Facebook“ dislokuoja inžinierių komandas, kurios gali pastebėti manipuliuotas nuotraukas, garso ir vaizdo įrašus. Be programinės įrangos naudojimo, „Facebook“ (ir kitos socialinės žiniasklaidos įmonės) samdo žmones rankiniu būdu ieškoti gilių įrašų.

„Mes išplėtėme savo nuolatines pastangas kovoti su manipuliuota žiniasklaida ir įtraukti kovą su giluminėmis klaidomis“, - teigiama „Facebook“ atstovės pranešime. "Mes žinome, kad nuolatinis visų formų manipuliavimo žiniasklaida atsiradimas kelia realių iššūkių visuomenei. Todėl investuojame į naujus techninius sprendimus, mokomės iš akademinių tyrimų ir bendradarbiaujame su kitais pramonės atstovais, norėdami suprasti giluminius ir kitus manipuliuotos žiniasklaidos būdus.. “

Ne visi gilūs vaizdai yra blogi

Kaip mes matėme su edukaciniu „McAfee“ vaizdo įrašu ir komediniais vaizdo įrašais, rodomais vėlyvo vakaro televizijoje, kai kurie vaizdo įrašai nebūtinai yra blogi. Tiesą sakant, nors politika gali atskleisti tikrąjį „netikrų“ vaizdo įrašų pavojų, pramogų industrija dažnai tiesiog parodo lengvesnę „giliai netikrų“ vaizdo įrašų pusę.

Pavyzdžiui, naujausiame filmo „Vėlyvasis šou su Stephenu Colbertu“ epizode buvo parodytas juokingas gilios pakraipos vaizdo įrašas, kuriame aktoriaus Steve'o Buscemi veidas buvo užmaskuotas virš aktorės Jennifer Lawrence kūno. Kitu atveju komikas Jordanas Peeleris pakeitė buvusio prezidento Baracko Obamos vaizdo įrašą, kuriame jis kalbėjo savo balsu. Panašūs humoristiniai vaizdo įrašai, tokie kaip šie, taip pat pasirodė internete, kuriuose prezidento D.Trumpo veidas yra virš Vokietijos kanclerės Angelos Merkel veido, kai asmuo kalba.

Vėlgi, jei filmai „gilios pakraipos“ naudojami satyriniu ar humoristiniu tikslu arba tiesiog kaip pramoga, tada socialinės žiniasklaidos platformos ir net filmų gamybos namai juos leidžia arba naudoja. Pvz., „Facebook“ leidžia tokio tipo turinį savo platformoje, o „Lucasfilm“ panaudojo skaitmeninio poilsio tipą, norėdama parodyti jauną Carrie Fisherį ant aktorės Ingvildo Deila kūno „Rogue One: A Star Wars Story“.

McAfee'as, Grobmanas, pažymėjo, kad kai kurios giluminių vaizdo įrašų technologijos yra gerai panaudojamos filmuojant dvigubus triukus, kad aktoriai būtų saugūs. "Kontekstas yra viskas. Jei tai komediniai tikslai ir akivaizdu, kad tai nėra realu, tai yra kažkas, kas yra teisėtas technologijos panaudojimas", - teigė D. Grobmanas. "Svarbu pripažinti, kad jis gali būti naudojamas įvairiems tikslams."

(Vaizdo kreditas: „Statista“)

Kaip aptikti giliai vaizduojamus vaizdo įrašus

„McAfee“ nėra vienintelė saugos įmonė, eksperimentuojanti, kaip aptikti padirbtus vaizdo įrašus. „Black Hat 2018“ pristatytame dokumente, pavadintame „AI Gone Rogue: Defeminating Deep Fakes before Heaset Menace“, du „Symantec“ saugumo ekspertai, saugumo reagavimo vadovas Vijay Thaware ir programinės įrangos kūrimo inžinierius Niranjan Agnihotri, rašo, kad jie sukūrė įrankį pastebėti padirbti vaizdo įrašai, pagrįsti „Google FaceNet“. „Google FaceNet“ yra neuroninio tinklo architektūra, kurią „Google“ tyrėjai sukūrė, kad padėtų patikrinti ir atpažinti veidą. Naudotojai treniruoja „FaceNet“ modelį pagal tam tikrą vaizdą ir vėliau gali patikrinti savo tapatybę atlikdami bandymus.

Siekdama sustabdyti gilių vaizdo įrašų plitimą, ne pelno siekianti organizacija „AI Foundation“, orientuota į žmonių ir AI sąveiką, siūlo programinę įrangą pavadinimu „Reality Defender“, kad galėtų pastebėti netikrą turinį. Jis gali nuskaityti vaizdus ir vaizdo įrašus, norėdamas pamatyti, ar jie nebuvo pakeisti naudojant AI. Jei jie turi, jie gaus „Garbingą AI vandens ženklą“.

  • Verslo vadovas apie mašinų mokymąsi Verslo vadovas apie mašinų mokymąsi
  • „PornHub“, „Twitter“ uždraudžia „Deepfake“ Ai modifikuotą „PornHub“, „Twitter“ Uždraudžia „Deepfake“ Ai modifikuotą pornografiją
  • Naujausi „Deepfake Tech“ leis šokti kaip Bruno Marsas Naujausias „Deepfake Tech“ padės šokti kaip Bruno Marsui

Kita strategija yra nepamiršti „Zero Trust“ sąvokos, kuri reiškia „niekada nepasitikėk, visada patikrink“ - kibernetinio saugumo devizas, tai reiškia, kad IT profesionalai turėtų patvirtinti, kad visi vartotojai yra teisėti prieš suteikdami prieigos privilegijas. Reikės skeptiškai žiūrėti į vaizdo įrašo turinio pagrįstumą. Taip pat norėsite, kad programinė įranga su skaitmeninės analizės galimybėmis pastebėtų suklastotą turinį.

Saugokis gilių

Einant į priekį, turėsime būti atsargesni dėl vaizdo įrašų turinio ir nepamiršti apie pavojus, kuriuos jie gali kelti visuomenei, jei netinkamai naudojami. Kaip pažymėjo Grobmanas, "artimiausiu metu žmonės turi būti skeptiškesni dėl to, ką mato, ir pripažinti, kad vaizdo ir garso įrašus galima gaminti".

Taigi skeptiškai žiūrėkite į žiūrimus politinius vaizdo įrašus, kai einame į kitą rinkimų sezoną, ir nepasitikėkite visais vaizdo įrašais, kuriuose vaizduojami įmonių vadovai. Nes tai, ką girdi, gali būti ne tai, kas buvo pasakyta iš tikrųjų, o klaidinantys gilios pakraipos vaizdo įrašai gali iš tikrųjų pakenkti mūsų visuomenei.

Ai ir mašininis mokymasis išnaudojamas, giluminius, dabar sunkiau aptinkamus