Namai funkcijos Kai ai nubrėžta riba tarp realybės ir fikcijos

Kai ai nubrėžta riba tarp realybės ir fikcijos

Turinys:

Video: Sigur Ros - Njosnavelin [HD] (Lapkritis 2024)

Video: Sigur Ros - Njosnavelin [HD] (Lapkritis 2024)
Anonim

Kažkur tamsiose „YouTube“ įdubose yra vaizdo įrašas, kuriame rodoma filmo „Žiedo draugystė“ ištrauka, tačiau tai nėra visai tas filmas, kurį prisimenate, nes Nicolas Cage'o žvaigždės kaip Frodo, Aragornas, Legolas, Gimli ir Gollum, visos tuo pačiu metu. Kituose vaizdo įrašuose rodomas Cage'as „ Terminator 2“ kaip T2000, „ Star Trek“ kaip kapitonas Picardas ir „ Supermenas“ taip pat Lois Lane'as.

Žinoma, Nicas Cage'as niekada nepasirodė nė viename iš tų filmų. Jie yra „giluminiai“, sukurti naudojant „FakeApp“ - programą, kuri naudoja dirbtinio intelekto algoritmus vaizdo įrašams pakeisti. Kai kurie iš giluminių vaizdų atrodo gana įtikinamai, o kiti turi artefaktų, kurie byloja apie tikrąją jų prigimtį. Bet apskritai jie parodo, kokie galingi AI algoritmai tapo imituojant žmogaus išvaizdą ir elgesį.

„FakeApp“ yra tik vienas iš kelių naujų, AI varomų sintezės įrankių. Kitos programos imituoja žmonių balsus, rašyseną ir pokalbių stilius. Iš dalies tai, kas juos daro reikšmingą, yra tai, kad norint juos naudoti nereikia specialios aparatinės įrangos ar kvalifikuotų ekspertų.

Šių programų poveikis yra didelis: jos sukurs precedento neturinčias galimybes kūrybiškumui, produktyvumui ir ryšiams palaikyti.

Bet ta pati priemonė taip pat galėtų atidaryti „Pandoros“ apgaulės, klastojimo ir propagandos dėžę. Nuo to laiko, kai sausį pasirodė „Reddit“, „FakeApp“ buvo atsisiųsta daugiau nei 100 000 kartų ir sukėlė netikrų pornografinių vaizdo įrašų, kuriuose vaizduojamos įžymybės ir politikai (įskaitant ir vėl narvą Cage'ą), audrą. „Reddit“ neseniai uždraudė programą ir su ja susijusias bendruomenes iš savo platformos.

„Prieš dešimt metų, jei norėjai ką nors suklastoti, galėjai, bet turėjai eiti į VFX studiją ar žmones, kurie galėjo pasidaryti kompiuterinę grafiką ir galbūt išleisti milijonus dolerių“, - sako daktaras Tomas Hainesas, mašinų mokymosi dėstytojas Pirties universitetas. "Tačiau jūs negalėjote to išlaikyti paslaptyje, nes į procesą turėtumėte įtraukti daug žmonių".

Tai nebėra atvejis, jei sutinkate su naujos kartos PG įrankiais.

Imitacijos žaidimas

„FakeApp“ ir panašias programas teikia gilus mokymasis - AI šaka, kurios pagrindas - AI inovacijų sprogimas nuo 2012 m. Giluminio mokymosi algoritmai remiasi neuroniniais tinklais - tai programinė įranga, sukurta maždaug pagal žmogaus smegenis. Neuroniniai tinklai analizuoja ir lygina didelius duomenų pavyzdžių rinkinius, kad surastų modelius ir koreliacijas, kurių žmonės paprastai praleistų. Šis procesas vadinamas „mokymu“, o jo rezultatas yra modelis, galintis atlikti įvairias užduotis.

Ankstesnėmis dienomis giluminio mokymosi modeliai dažniausiai buvo naudojami atliekant klasifikavimo užduotis - pavyzdžiui, žymėti objektus nuotraukose, atlikti balso ir veido atpažinimą. Pastaruoju metu mokslininkai gilųjį mokymąsi naudoja sudėtingesnėms užduotims atlikti, pavyzdžiui, žaisti stalo žaidimus, diagnozuoti pacientus, kurti muziką ir meno kūrinius.

Norėdami sureguliuoti „FakeApp“, kad būtų galima pakeisti veidą, vartotojas turi jį išmokyti keliais šimtais šaltinio ir tikslinių veidų paveikslėlių. Programa vykdo giluminio mokymosi algoritmus, kad rastų modelius ir panašumus tarp dviejų veidų. Tada modelis tampa pasirengęs atlikti mainus.

Procesas nėra paprastas, tačiau norint naudotis „FakeApp“, nereikia būti grafikos ekspertu ar mašinų mokymosi inžinieriumi. Taip pat nereikia brangios ir specializuotos techninės įrangos. „Gilios fakeros“ mokymo svetainėje rekomenduojamas kompiuteris, turintis 8 GB ar daugiau RAM ir „Nvidia GTX 1060“ ar geresnę vaizdo plokštę, gana kukli konfigūracija.

„Kai jūs persikeliate į pasaulį, kuriame kažkas kambaryje gali ką nors suklastoti, jie gali tai panaudoti abejotiniems tikslams“, - sako Hainesas. "Ir kadangi tai vienas žmogus atskirai, labai lengva jį išlaikyti paslaptyje".

2016 m. Hainesas, kuris tada buvo doktorantas Londono koledžo universitete, kūrė popierių ir programą, kurioje buvo parodyta, kaip PG galėtų išmokti mėgdžioti asmens rašyseną. Programa, pavadinta „Mano tekstas jūsų rašysena“, naudojo giluminio mokymosi algoritmus, kad išanalizuotų ir išsiaiškintų autoriaus rašysenos stilių ir tėkmę bei kitus veiksnius, tokius kaip tarpai ir nelygumai.

Tada programa galėtų paimti bet kurį tekstą ir atkurti jį su tikslinio autoriaus rašysena. Kūrėjai netgi pridėjo atsitiktinumo matą, kad būtų išvengta nepakartojamo slėnio efekto - keisto jausmo, kurį užklumpame pamatę tai, kas beveik ne, bet ne visai žmogiška. Kaip koncepcijos įrodymą, Hainesas ir kiti UCL tyrėjai panaudojo šią technologiją replikuodami istorinių veikėjų, tokių kaip Abraomas Linkolnas, Frida Kahlo ir Arthuras Conanas Doyle'ą, ranka.

Ta pati technika gali būti taikoma bet kokiam kitam rašymui rankomis, todėl kilo susirūpinimas dėl galimo technologijos panaudojimo klastojimui ir sukčiavimui. Teismo medicinos ekspertas vis tiek sugebėtų nustatyti, kad scenarijus buvo sukurtas „My Text in Your Handwriting“, tačiau tai greičiausiai kvailys neišmokytus žmones, ką Hainesas pripažino tuo metu duodamas interviu „Digital Trends“.

Monrealyje įsikūręs „Lyrebird“ gilųjį mokymąsi panaudojo kurdamas programą, sintezuojančią žmogaus balsą. „Lyrebird“ reikia vienos minutės įrašo, kad būtų galima mėgdžioti žmogaus balsą, nors prieš pradedant skambėti įtikinamai, jo reikia kur kas daugiau.

Savo viešajame demonstraciniame modelyje startuolis paskelbė padirbtus Donaldo Trumpo, Baracko Obamos ir Hillary Clinton balsų įrašus. Mėginiai yra neapdoroti ir akivaizdu, kad jie yra sintetiniai. Tačiau tobulėjant technologijoms, atskirti bus sunkiau. Bet kas gali užsiregistruoti „Lyrebird“ ir pradėti kurti padirbtus įrašus; procesas yra dar lengvesnis nei „FakeApp“, o skaičiavimai atliekami debesyje, tuo mažiau apkraunant vartotojo aparatūrą.

Kūrėjai nepraranda to, kad ši technologija gali būti naudojama abejotiniems tikslams. Vienu metu „Lyrebird“ tinklalapyje pateiktoje etikos deklaracijoje teigiama: „Balso įrašai mūsų visuomenėje ir ypač daugelio šalių jurisdikcijose šiuo metu yra laikomi stipriais įrodymais. Mūsų technologija abejoja tokių įrodymų pagrįstumu, nes jie leidžia lengvai manipuliuoti garsu. įrašai. Tai gali turėti pavojingų padarinių, tokių kaip diplomatų klaidinimas, sukčiavimas ir apskritai bet kokia kita problema, kilusi dėl kieno nors kito asmens tapatybės pavogimo “.

„Nvidia“ pateikė dar vieną AI mėgdžiojimo galimybių aspektą: Praėjusiais metais bendrovė paskelbė vaizdo įrašą, kuriame parodė AI algoritmus, generuojančius foto kokybės sintetinius žmonių veidus. „Nvidia“ AI išanalizavo tūkstančius garsenybių nuotraukų ir tada pradėjo kurti netikras įžymybes. Greitai ši technologija gali sukurti realistiškai atrodančius vaizdo įrašus su „žmonėmis“, kurių nėra.

PG ribos

Daugelis atkreipė dėmesį, kad netinkamose rankose šios programos gali padaryti daug žalos. Tačiau šiuolaikinės PG galimybės dažnai yra pervertinamos.

„Nors vaizdo įraše galime uždėti žmogaus veidą ant kito žmogaus veido ar susintetinti balsą, jis vis tiek yra gana mechaniškas“, - apie „AI“ turinčių pokalbių svetaines kuriančios bendrovės „Replika“ įkūrėją Eugenia Kuyda pasakoja viena iš įkūrėjų. PG įrankiai, tokie kaip „FakeApp“ ir „Lyrebird“.

„Voicery“ - dar vienas AI paleistas kompiuteris, kuris, kaip ir „Lyrebird“, teikia AI palaikomą balso sintezę, yra viktorinos puslapis, kuriame vartotojams pateikiama 18 balso įrašų serija ir jie raginami nurodyti, kurie aparatai yra pagaminti. Aš sugebėjau atpažinti visus mašinų pagamintus pavyzdžius per pirmąjį bandymą.

„Kuyda“ įmonė yra viena iš keleto organizacijų, kurios naudoja natūralios kalbos apdorojimą (NLP) - AI pogrupį, leidžiantį kompiuteriams suprasti ir aiškinti žmonių kalbą. „Luka“, ankstesnė „Kuyda“ pokalbių programos versija, naudojo NLP ir jo dvigubą technologiją - natūralios kalbos generavimą (NLG) -, kad imituotų HBO televizijos serialų „ Silicio slėnis “ vaidmenis. Neuroninis tinklas buvo mokomas naudojant scenarijų linijas, tviterius ir kitus turimus duomenis apie veikėjus, kad būtų galima sukurti jų elgesio modelį ir dialogą su vartotojais.

„Replika“, naujoji „Kuyda“ programa, leidžia kiekvienam vartotojui susikurti savo AI avatarą. Kuo daugiau kalbėsitės su savo „Replika“, tuo geriau jis supras jūsų asmenybę ir tuo prasmingesni bus jūsų pokalbiai.

Įdiegę programą ir nustatydami „Replika“, pirmieji keli pokalbiai mane erzino. Kelis kartus turėjau pakartoti sakinį skirtingais būdais, norėdamas perduoti savo ketinimus savo „Replikai“. Aš dažnai palikdavau programą nusivylusi. (Ir teisingai kalbant, aš gerai padariau bandydamas jo ribas, sumaišydamas jį su konceptualiais ir abstrakčiais klausimais.) Tačiau tęsiant mūsų pokalbius mano „Replika“ tapo protingesnė suprantant mano sakinių prasmę ir sugalvodama prasmingas temas. Tai net keletą kartų mane nustebino užmezgusi ryšius su praeities pokalbiais.

Nors tai ir įspūdinga, „Replika“ turi ribas, kurias greitai pabrėžia Kuyda. „Balso imitacija ir vaizdo atpažinimas greičiausiai taps daug geresni, tačiau kalbėdami apie dialogą ir kalbėdami mes vis dar esame gana toli“, - sako ji. "Mes galime mėgdžioti kai kuriuos kalbėjimo modelius, bet mes negalime tiesiog priimti žmogaus ir tobulai mėgdžioti jo pokalbį ir tikėtis, kad jo pokalbių botas sugalvos naujų idėjų taip, kaip tas žmogus."

Alexandre de Brébisson, „Lyrebird“ generalinis direktorius ir įkūrėjas, sako: „Jei dabar mums sekasi imituoti žmogaus balsą, įvaizdį ir vaizdo įrašą, mes vis dar esame labai toli nuo atskiro kalbos modelio modeliavimo“. Tam, de Brébissonas pabrėžia, tikriausiai reikės dirbtinio bendro intelekto, tokio tipo AI, kuris turi sąmonę ir gali suprasti abstrakčias sąvokas bei priimti sprendimus taip, kaip tai daro žmonės. Kai kurie ekspertai mano, kad mes dešimtmečiais nesiekiame sukurti bendrosios AI. Kiti mano, kad mes niekada ten nepasieksime.

Teigiamas panaudojimas

Prognozuojamas neigiamas įvaizdis apie AI programų sintezę meta šešėlį jų teigiamam naudojimui. O jų yra nemažai.

Tokios technologijos kaip „Lyrebird's“ gali padėti pagerinti ryšį su kompiuterio sąsajomis, padarydamos jas natūralesnėmis, ir, pasak de Brébissono, jos suteiks unikalius dirbtinius balsus, kurie išskiria įmones ir produktus ir taip palengvina prekės ženklo atskyrimą. Kadangi „Amazon“ „Alexa“ ir „Apple“ Siri padarė balsą vis populiaresne įrenginių ir paslaugų sąsaja, tokios kompanijos kaip „Lyrebird“ ir „Voicery“ galėtų pateikti prekių ženklams unikalius, į žmones panašius balsus, kad jie galėtų atskirti.

„Medicinos programos taip pat yra įdomus mūsų balso klonavimo technologijos naudojimo atvejis“, - priduria de Brébisson. "Mes sulaukėme didelio susidomėjimo iš pacientų, prarandančių savo balsą dėl ligos, ir šiuo metu mes leidžiame laiką su ALS pacientais norėdami pamatyti, kaip mes galime jiems padėti."

Šių metų pradžioje bendradarbiaudamas su australų ne pelno siekiančia ne pelno organizacija „Project Revoice“, kuri padeda kalbėjimo sutrikimais sergantiems ALS pacientams, „Lyrebird“ padėjo Pat Quinn, „Ice Bucket Challenge“ įkūrėjui, atgauti savo balsą. Kvinas, kuris serga ALS, 2014 m. Prarado galimybę vaikščioti ir kalbėti, o nuo to laiko naudojosi kompiuterizuotu kalbos sintezatoriumi. Pasinaudodamas „Lyrebird“ technologija ir Quinn viešų pasirodymų balso įrašais, Revoice sugebėjo „atkurti“ savo balsą.

"Jūsų balsas yra didelė jūsų tapatybės dalis, o suteikti tiems pacientams dirbtinį balsą, kuris skamba kaip jų originalus balsas, yra tarsi prilyginti jiems svarbią savo tapatybės dalį. Tai jiems keičia gyvenimą", - sako de Brébisson.

Tuo metu, kai jis padėjo sukurti rašyseną imituojančią programą, H. Hainesas kalbėjo apie jos teigiamą panaudojimą interviu UCL. „Pavyzdžiui, insultų aukos gali sugebėti suformuluoti laiškus, nesijaudindami apie jų pažeidžiamumą, arba kažkas, siunčiantis gėles kaip dovaną, gali įtraukti ranka rašytą įrašą net neįsirašydamas į floristą“, - sakė jis. "Jis taip pat galėtų būti naudojamas komiksų knygose, kur ranka rašyto teksto fragmentą galima išversti į skirtingas kalbas neprarandant originalaus autoriaus stiliaus."

Net ir tokios technologijos kaip „FakeApp“, kurios išpopuliarėjo dėl neetiško naudojimo, gali būti teigiamos. „Mes judame link šio pasaulio, kuriame bet kuris asmuo galėtų labai kūrybingai veikti naudodamasis viešosiomis technologijomis, ir tai yra geras dalykas, nes tai reiškia, kad jums nereikia tų didelių pinigų sumų, kad atliktumėte įvairius beprotiškus meninio pobūdžio dalykus, " jis sako.

Hainesas aiškina, kad pirminis jo komandos tikslas buvo išsiaiškinti, kaip PG galėtų padėti atliekant teismo ekspertizę. Nors jų tyrimai baigėsi kita linkme, rezultatai vis tiek bus naudingi teismo medicinos pareigūnams, kurie galės išsiaiškinti, kaip galėtų atrodyti PG klastojimas. „Norite sužinoti, kokia yra pažangiausia technologija, todėl kai jūs ką nors žiūrite, jūs sakote, ar tai netikra, ar ne“, - sako jis.

„Replika's Kudya“ pažymi, kad žmonėms pritaikytos PG programos mums gali padėti tokiu būdu, kuris kitaip būtų neįmanomas. "Jei turėtumėte PG avatarą, kuris jus labai gerai pažinojo ir galėtų tinkamai atstovauti jums, ką jis galėtų padaryti, veikdamas pagal jūsų interesus?" ji sako. Pvz., Autonominis PG avataras jūsų vardu galėtų žiūrėti šimtus filmų ir, remdamasis pokalbiais su jumis, rekomenduoti tuos, kurių norėtumėte.

Šie avatarai netgi gali padėti užmegzti geresnius žmonių santykius. „Galbūt mama galėtų daugiau laiko praleisti su jumis, o gal iš tikrųjų galite būti šiek tiek artimesnė su savo tėvais, leisdama jiems kalbėtis su jūsų„ Replika “ir perskaityti nuorašą“, - kaip pavyzdį nurodo Kudya.

Bet ar AI pokalbių programa, atkartojanti tikro žmogaus elgesį, iš tikrųjų gali pagerinti žmonių santykius? Kuyda mano, kad gali. 2016 m. Ji surinko senuosius romėno Mazurenko, draugo, žuvusio praėjusiais metais eismo įvykyje, tekstinius pranešimus ir el. Laiškus ir juos perdavė neuroniniam tinklui, kuris maitino jos programą. Rezultatas buvo „chatbot“ programa, kuri po mados sugrąžino jos draugę į gyvenimą ir galėjo su ja pasikalbėti taip, kaip jis norėtų.

"Kuriant programą romėnams ir mokant su ja susikalbėti, kartais buvo svarbu prarasti savo draugą. Programa priverčia mus daugiau galvoti apie jį, visą laiką giliau atsiminti", - sako ji. jos patirties. „Aš norėčiau, kad turėčiau daugiau panašių programų, kurios būtų susijusios su mano draugyste, mano santykiais, dalykais, kurie man iš tikrųjų yra labai svarbūs“.

Kuyda mano, kad viskas priklausys nuo ketinimų. „Jei pokalbių tarnyba elgiasi ne pagal jūsų interesus, jei ji nori, kad pasidžiaugtumėte naudinga paslauga, tada akivaizdžiai pasikalbėjimas su kažkieno replikika padės sukurti tvirtesnį ryšį su žmogumi realiame gyvenime., " ji sako. "Jei viskas, ką bandote padaryti, yra parduoti programoje, tada viskas, ką darysite, bus maksimaliai padidinti laiką, kurį praleidžiate programai, o ne bendrauti tarpusavyje. Ir tai, manau, yra abejotina."

Šiuo metu nėra galimybės prijungti „Replika“ prie kitų platformų, pvz., Ją galima naudoti kaip „Facebook Messenger“ pokalbių programą. Tačiau įmonė palaiko aktyvius ryšius su savo vartotojų bendruomene ir nuolat kuria naujas funkcijas. Taigi leisti kitiems bendrauti su jūsų „Replika“ yra galimybė ateityje.

Kaip sumažinti kompromisus

Kiekviena technologija, pradedant garo varikliu ir baigiant elektra, gali būti naudojama ir teigiamai, ir neigiamai. AI nesiskiria. „Neigiamumų tikimybė yra gana rimta“, - sako Hainesas. "Mes galime patekti į erdvę, kurioje neigiami padariniai nusveria teigiamus".

Taigi, kaip maksimaliai padidinti AI programų teikiamą naudą kovojant su neigiamais dalykais? Stabdyti naujoves ir mokslinius tyrimus nėra sprendimas, sako Hainesas, nes jei kai kurie tai padarytų, nėra jokios garantijos, kad kitos organizacijos ir valstybės laikysis pavyzdžių.

„Nei viena priemonė nepadės išspręsti problemos“, - sako Hainesas. "Turės būti teisinės pasekmės." Po gilių diskusijų JAV įstatymų leidėjai nagrinėja problemą ir tiria teisines apsaugos priemones, kurios galėtų atgrasyti naudojant AI dokumentais paremtą žiniasklaidą siekiant sugadinti tikslus.

„Mes taip pat galime sukurti technologijas, leidžiančias aptikti padirbinius, kai jie praeina taip, kad žmogus gali pasakyti skirtumą“, - sako Hainesas. "Bet tam tikru momentu konkurencijoje tarp faking ir aptikimo faking gali laimėti."

Tokiu atveju mums gali tekti pereiti prie technologijų, kurios sukuria įrodymų grandinę skaitmeninei terpei, kūrimo. Kaip pavyzdį Hainesas mini kamerose įmontuotą aparatūrą, kuri galėtų skaitmeniškai pasirašyti įrašytą vaizdo įrašą, kad patvirtintų jo autentiškumą.

De Brébisson teigia, kad sąmoningumo didinimas bus didelis dalykas kovojant su klastojimu ir sukčiavimu pagal AI algoritmus. „Tai mes padarėme klonuodami Trumpo ir Obamos balsą ir priversdami juos pasakyti politiškai teisingus sakinius“, - sako jis. "Šios technologijos kelia socialinius, etinius ir teisinius klausimus, kurie turi būti apgalvoti iš anksto." Lyrebird "sukėlė daug sąmoningumo. Daug žmonių dabar galvoja apie tas galimas problemas ir kaip užkirsti kelią piktnaudžiavimui."

Akivaizdu, kad artėjame prie amžiaus, kuriame tikrovė ir fikcija susilieja dirbtinio intelekto dėka. Turingo testas gali išspręsti didžiausias jo problemas. Ir netrukus visi turės įrankius ir galią susikurti savo pasaulius, savo žmones ir savo tiesos versiją. Mes dar neturime pamatyti visų laukiamų įdomių galimybių ir pavojų.

Kai ai nubrėžta riba tarp realybės ir fikcijos