Jadrová raketa sa sama nevystrelí, s umelou inteligenciou to bude zložitejšie
Je tu otázka, či stroje budú vždy ochotné plniť vôľu človeka, hoci ich inteligencia raz bude oveľa vyššia. A tiež, či im dokážeme vštepiť náš hodnotový rebríček. Nedá sa vylúčiť, že raz budú mať vlastné ciele, ktoré budú iné, než naše, hovorí profesor z Ústavu robotiky a kybernetiky FEI STU Ivan Sekaj.
Pán profesor, začnime otvoreným listom, ktorý nedávno napísal miliardár a vizionár Elon Musk a skupina expertov; vyzvali v ňom na pozastavenie vývoja výkonných systémov umelej inteligencie. Sú obavy namieste?
Tie sú tu už nejaký čas, samotných rizík je viac - definoval ich okrem neho aj Future of Live Institute (nezisková organizácia, ktorej cieľom je znížiť katastrofické a existenčné riziká, najmä to vyplývajúce z pokročilej umelej inteligencie, pozn. red.). Elon Musk bol jedným zo zakladateľov, v súčasnosti tam už nepôsobí. Hrozby, ktoré vo vami spomínanom liste uvádzajú, upozorňujú na možnosť, že dnešné systémy na úrovni ChatGPT-4 spoločnosti Open AI, ktorý bol ako jediný spomedzi viacerých podobných systémov zatiaľ zverejnený, môžu byť zneužité napríklad na generovanie dezinformácií, ovplyvňovanie a manipuláciu verejnej mienky alebo ohrozenie demokracie.
Predpokladám, že toho hrozí aj viac.
Isteže; tieto systémy napríklad dokážu v nesprávnych rukách manipulovať s finančnými trhmi. Majú znalosti, dáta, informácie z rôznych zdrojov, dokážu ich absorbovať oveľa efektívnejšie a vo väčšom rozsahu ako človek, nakoľko majú obrovskú kapacitu pamäte a schopnosti spracovania. Môžu teda oklamať ľudí, trhy, rôzne subjekty vo svoj prospech. Zároveň sa veľmi rýchlo vyvíjajú a dokážu sa našej inteligencii nielen vyrovnať, ale ju v budúcnosti aj prekonať, pričom vôbec nemusí ísť o vzdialenú budúcnosť. A tu treba spomenúť, že autori spomínanej výzvy dokonca upozorňujú aj na hrozbu ovládnutia ľudskej civilizácie strojmi.
Že nás prekonajú?
Áno. Musk a ostatní signatári by s ohľadom na túto skutočnosť chceli, aby sa vývoj umelej inteligencie začal regulovať, čo tak momentálne nie je. V súčasnosti ide o predmet konkurenčného boja medzi jednotlivými firmami v USA, v Európe, v Číne... avšak hrozí, že to prerastie ďalej, než je bezpečné. Navrhujú teda vývoj zastaviť na pol roka a vytvoriť kontrolné mechanizmy, respektíve zaviesť určité bezpečnostné protokoly. A legislatíva by určila mantinely.
Vy sa na to ako pozeráte?
Osobne to už dlhší čas, aj pred touto výzvou, považujem za zmysluplné. Problém ale vidím v praktickej stránke veci, v spôsobe realizácie. Nebude to ľahké. Dostali sme sa však do štádia, v ktorom sú problémy už veľmi markantné.
To je ďalšia vec. Prečo teraz?
Nie som si istý, čo prioritne túto výzvu iniciovalo, či zverejnenie spomínaného ChatGPT... tu dodávam, že možno existujú aj iné systémy, len nie sú verejne dostupné. Toto je jedna stránka veci, ktorá takpovediac zalomcovala verejnosťou. Treba však spomenúť aj druhú, ktorou je fakt, že signatári majú ako odborníci na danú oblasť väčší prehľad o aktuálnom stave, o reálnej situácii vo vývoji technológií, keďže sa na ňom podieľajú. Vedia predpokladať potenciál, smerovanie vývoja. Ale čítal som aj určité vyjadrenia, že nejde iba o nezištnú iniciatívu, ale aj o konkurenčný boj - že pracovali na vývoji vlastných systémov vo svojich firmách, a niektoré konkurenčné projekty ich predbehli. Ťažko povedať. Ale každopádne je známe, že Musk aj iné osobnosti už dávno upozorňovali na určité riziká umelej inteligencie.
Snahu ako takú teda beriete.
Beriem a jedným dychom dodávam, že musí byť globálna. Celosvetová.
...tu ale môžeme naraziť na problém. Kto nám zaručí, že to nedopadne tak, že my sa medzi sebou dohodneme a istá nemenovaná veľká krajina s nami vybabre?
Áno, regulovanie akéhokoľvek výskumu je ošemetná vec. Veľa môžete robiť utajene. Neodškriepiteľným faktom je, že umelá inteligencia prináša obrovské konkurenčné výhody z viacerých uhlov pohľadu, technologické, vedecké, ekonomické, politické, vojenské... pričom všetko spolu súvisí. A viete, ako je dnešný svet z týchto hľadísk rozdelený. Nikto sa dobrovoľne nevzdá svojho výskumu a vývoja. Nemôžeme dopustiť, aby naši protivníci získali ekonomické, politické, vojenské výhody. Regulovať umelú inteligenciu musíme už dnes, ale bude to ťažký, selektívny a opatrný proces. Nemôžeme, žiaľ, najprv čakať, až bude celý svet demokratický, aby sme sa potom mohli spoločne, koordinovane a v pokoji sústrediť na regulovaný vývoj umelej inteligencie. Takej, ktorá bude nielen sluha, ale aj veľmi silný „protivník“.
Ako si teda reguláciu výskumu predstavujete?
Selektívne, rozvážne a tak zodpovedne, ako sa bude dať. Asi nebude možné úplne regulovať základný výskum a experimenty s novými technológiami, ale viem si predstaviť reguláciu praktického a komerčného využitia produktov a služieb na báze umelej inteligencie. Tiež tu vidím istú analógiu s jadrovými zbraňami. Tie sme tiež začali vyvíjať na začiatku nekontrolovateľne, ale keď bol jasný potenciál a nebezpečenstvo, dve hlavné svetové veľmoci sa dohodli a napriek problémom sa to dodnes podarilo ako-tak ustrážiť. Ale je tu aj fakt, že jadrová raketa sa nevystrelí sama, je pod kontrolou človeka. On je ten, kto stlačí gombík. Umelá inteligencia je po tejto stránke zložitejšia - môže rozhodovať v istých prípadoch aj sama.
Poďme k praktickej stránke veci. Čo bude riešiť legislatíva a čo regulácia?
Európska únia začala s reguláciami už dávnejšie, ešte pred četovacími botmi. Už vtedy pripravovali legislatívny balík týkajúci sa napríklad duševného vlastníctva a podobne, ktorý by sa mal dostať do života tuším v roku 2027. Známym problémom sú v tejto súvislosti napríklad autonómne automobily, ktoré sú už aj dnes spoľahlivejšie, ako ľudskí šoféri, ale aj tak sa môže stať, že niekoho zrazia. Aké bude legislatívne riešenie? Kto bude zodpovedný? Celkovo bude treba zabezpečiť, aby sa nám to nevymklo z rúk.
Spomenuli ste rôzne typy výhod pre majiteľa umelej inteligencie. Politické aj vojenské sú jasné. Ako ste mysleli finančné? Že by sa rozhodla na základe vedomostí, ktoré má v databáze, pre, dajme tomu, umelý dumping akcií?
Áno, v takom duchu. Na obchodovanie s rôznymi komoditami potrebujete znalosti, matematický aparát, softvér, aktuálne údaje a profituje ten, kto vie lepšie predikovať a investovať. Špecifikom umelej inteligencie je, že má k dispozícii veľa dát; môže ich mať aj človek, len ten ich musí absorbovať a spracovať. Ale nemá takú výpočtovú kapacitu ani takú pamäť. Skrátka neexistuje človek, ktorý vie všetko, ale stroje dokážu tieto informácie zhromaždiť a rýchlo spracovať. Stroje raz nadobudnú vysokú inteligenciu. Myslím naozaj vysokú, nie v ľudskom meradle; človek môže mať, dajme tomu, IQ 130 až 150, zatiaľ čo stroje pokojne aj 15 000.
Predpokladám, že odpadá aj proces učenia.
Vojde sa do niekoľkých hodín, možno dní, pri procesoch, na ktoré by človek potreboval celý život a aj tak by taký rozsah znalostí nezískal. A keď stroju zadávateľ povie, že ja chcem takúto finančnú operáciu, prípadne rovno taký a taký podvod, má na to aparát a mechanizmy. Budeme potrebovať rovnako silnú a efektívnu protizbraň, aby sme to boli schopní odhaliť.
V tejto súvislosti ste sa, ak sa nemýlim, svojho času vyjadrili, že vždy sa najprv vyvinula zbraň a až potom protizbraň.
Býva to tak. V súčasnosti sme však už schopní predikovať, môžeme myslieť dopredu, robiť opatrenia. Aj keď pravdou je, že všetko predpovedať neviete.
Neviem opäť raz odolať pár situáciám z katastrofických filmov. V mojom obľúbenom „Ja, robot“ vložili do robotov trojicu základných myšlienok, na základe ktorých bolo vylúčené, aby ublížili človeku. Akurát tvorcovia nedomysleli, že roboty nás môžu chrániť pred nebezpečenstvom aj tak, že nám obmedzia slobodu, aby sme si nezničili svet.
V sci-fi nemám až takú záľubu, nezvyknem ich vyhľadávať. Ale toto sa môže stať. Do úvahy musíme brať aj to, kto a s akým cieľom stroje vyvíja a tie ciele nemusia byť ani pozitívne, ani humánne. A keď vložíte zlé kritériá, stroj robí to, čo od neho chcete, a nemusíte si uvedomiť, že keď ste chceli, aby vás chránil, bude to robiť aj tak, že vás radšej nenechá rozhodovať. A takýchto prípadov, či už cielených alebo neúmyselných, môže byť viac. Je reálne, že by sa to vymklo alebo vyvinulo inak, ako zamýšľame. A vy to viete zvrátiť len po bod, v ktorom ešte rozhodujete.
Ďalší z tohto súdka, Inteligentný dom. Tu som hlavnú myšlienku z môjho laického pohľadu už vnímala sčasti ako extrém. Mal chrániť obyvateľku, ktorá bola celkom dobre vydatá, ale keď si s manželom chvíľku ideálne nerozumeli, ten systém naňho objednal bez jej vedomia vraha. Architekti toho domu, respektíve systému, si neuvedomili, že naše podvedomé myšlienky by sme z pohľadu zdravého rozumu či etickej brzdy častokrát neuskutočnili.
Tú scénu si pamätám, ale nepokladám ju za prehnanú. Tu som skôr pesimista. Podľa mňa stroje môžu mať aj vlastnosti tohto typu, my im síce budeme delegovať kompetencie, ale musíte brať do úvahy, že strojová logika je iná. Ich rebríček hodnôt nebude taký, ako náš. S vyvinutím zodpovednosti, ohľaduplnosti, empatie alebo priateľstva či lásky ešte u nich rátať zrejme nemôžeme.
Nie je možnosť vložiť do nich niečo v duchu svedomia?
Možno sa to raz podarí. Emócie, psychika sú neoddeliteľné súčasti človeka a on ich využíva rôznymi spôsobmi, pričom nevedú vždy k pragmatickému cieľu. Ale niekedy nás aj ochraňujú. Náš hodnotový rebríček by sme radi vštepili aj strojom, ale je tu otázka, či tie budú mať niekedy vlastné vedomie a niečo ako emócie. A či budú ochotné plniť vôľu človeka aj za predpokladu, že ich inteligencia bude oveľa vyššia.
Podľa vás budú raz sledovať vlastné ciele?
Dlho to bolo predmetom sci-fi románov, ale v súčasnosti táto otázka presakuje aj do serióznej vedy. Myslím, že vedci sa pri danej otázke delia na dve kategórie, osobne som v tej, ktorá verí, že taká situácia možná je. Podľa mňa stroj vlastné vedomie nadobudnúť môže a ak sa tak naozaj stane, budú mu z toho vyplývať vlastné ciele, ktoré môžu byť antagonistické voči cieľom človeka.
Vieme si vedomie nejako definovať?
Pre jednoduchosť ho definujme ako schopnosť vnímať samého seba, svoje miesto, svoje ciele, vo vzťahu k okolitému svetu. V ľudskom mozgu sa nachádza 86 miliárd vzájomne poprepájaných neurónov. Takzvaná komputačná teória mysle hovorí, že vedomie je len produktom neuronálnej činnosti mozgu. Tento názor nezdieľajú všetci vedci, mnohí si myslia, že na vznik tvora s vedomím treba ešte niečo viac. Francis Crick, fyzik a biochemik, ktorý je laureátom Nobelovej ceny za spoluobjavenie molekulovej štruktúry DNA (spolu s Jamesom Watsonom, pozn. red.), je takisto zástancom myšlienky, že keď vytvoríme správny hardvér a softvér, môžeme dosiahnuť niečo ako vedomie. A tento názor nie je ojedinelým javom medzi špičkovými vedeckými osobnosťami.
K tej etike mi ešte napadá jedna filmová scéna. Policajt – už si presne nespomínam – buď spadol do rieky, alebo naschvál skočil, aby z nej vytiahol malé dievčatko. Problémom bolo, že napokon potrebovali pomoc obaja, ale stroj vyhodnotil situáciu tak, že on má šancu prežiť 43 percent a ona iba jedenásť. Pomohol teda jemu, dievčatko zomrelo. Keď policajt spätne analyzoval tú situáciu, povedal veľmi zaujímavú vec: bolo to ešte decko, jedenásť percent musí stačiť. A človek by to vedel.
Áno, to je práve to, čo vyplýva z odlišnej interpretácie vnímania sveta. Ten stroj urobil racionálnu úvahu a tej sa držal. Tu si však naozaj netrúfnem predpovedať, kam to povedie. Ako budú stroje konformné s naším etickým kódexom, morálnym systémom.
Ešte by som sa rada pozrela na kategorizáciu ľudí strojmi.
O tomto sa veľa hovorí, že sú až rasistické, a nie je to otázka budúcnosti, ale už aj dneška. Tu si zasa uvedomme, že ich učíme my, a ich učenie prebieha veľmi podobne, ako u malých detí. Vštepujeme im našu kultúru, náš pohľad na svet, morálku, ktorá je z nášho pohľadu správna. Dieťa bude tieto hodnoty vo svojom živote vyznávať, riadiť sa nimi a je na nás, či vychováme slušného človeka, alebo rasistu. A rovnako sa učia stroje. Ako ich natrénujeme, tak budú konať, lenže naozaj dôsledne. Nájdu každú medzeru. Nemôžu za to.
Bude stroj niekedy vedieť podvádzať?
Určite. Keď mu vysvetlíme pravidlá hry, naučí sa nájsť si spôsob, ako vyhrať. Podvádzanie nebude problém. Zatiaľ nemá výčitky svedomia. Funguje to tak, že stroju dáme nejaké kritériá, ktoré chceme, aby minimalizoval či maximalizoval, a vytvoríme mu podmienky pre učenie. Čiže poskytneme mu dáta alebo simulujeme nejaké prostredie. A on sa naučí tie kritériá čo najlepšie splniť. Nerozumie tomu, či sú správne, etické a podobne... až tomu bude rozumieť, to už bude iná káva. Potom nás prestane poslúchať.
Poďme k strojom a povolaniam. Niektoré zastanú lepšie, predsa len človeka po ôsmich hodinách kontroly súčiastok bolia oči a klesá mu pozornosť. Ale čo taká práca zdravotnej sestry? Bude toho stroj niekedy schopný? Utešiť matku na pokraji hysterického záchvatu, ktorej práve auto zrazilo dieťa?
Dlhá téma. O kategóriách ohrozených povolaní by sme sa mohli veľa baviť. Motoriku, či už hrubú alebo jemnú, a rutinné činnosti stroje dobre zvládajú už dávno. Ale čoraz viac nahrádzajú aj vysoko kvalifikovanú prácu prekladateľov, programátorov, právnikov, už aj lekárov, dokonca aj tvorivú prácu vedcov... zatiaľ ťažko povedať, ktoré činnosti zostanú ľuďom. Ešte zatiaľ nie sme v situácii, že by sme sa báli o prácu. Keď si zoberieme už len našu krajinu, koľkých ľudí potrebujeme. Dopyt stále prevyšuje ponuku. Potrebujeme informatikov, zdravotníkov, remeselníkov... avšak o pár rokov, prípadne desiatok rokov, sa to začne meniť. Ale aj potom podľa mňa zostanú profesie, kde sa vyslovene bude žiadať živý človek. Napríklad tá zdravotná sestra. Vymení pacientovi obväz, usmeje sa naňho, vezme ho za ruku, porozpráva sa s ním. Ani deti v materskej škôlke snáď nebudú vychovávať roboty.
Aspoň po istý vek...?
Áno, na vyšších stupňoch vzdelania už tá nahraditeľnosť bude jednoduchšia. Veď aj dnes už nemáte problém vzdelávať sa cez polovicu sveta. Dokončíte špičkovú univerzitu bez toho, aby ste vytiahli päty z Bratislavy. Toto by už bolo na debatu, ale deti, chorí ľudia, starostlivosť o seniorov budú stále oblasti, kde sa ľudia uplatnia lepšie. A povedzme si, tu je dlhodobý nedostatok ľudí. Keď bude mať každý senior jedného opatrovateľa, ktorý sa oňho bude starať, nájdu zmysluplné uplatnenie mnohí, ktorých v iných oblastiach nahradili stroje.
Chvíľku som to robila. Vymenila by som sa so strojom (smiech).
Verím. Ale to mohlo byť tým, že ste mali príliš veľa roboty a veľa klientov. Keď seniorovi jeden opatrovateľ navarí a druhý sa s ním bude zabávať, bude to mať logiku. A nikto nemusí byť unavený.
Bude to podobná situácia, ako keď prišli mobily a spojovateľky sa preškolili na operátorky a fungovali ďalej...?
Napríklad. Ekonómovia hovoria, že strach o stratu pracovných miest nie je až tak namieste, že vždy budú vznikať nové profesie. Ale je tu ešte aj iná dôležitá vec; vezmite si napríklad, že na prelome 20. storočia pracovalo tridsať percent ľudí v poľnohospodárstve. A ako je to dnes? Možno tri percentá. Alebo podobne v priemysle. Pri všetkej úcte, ja si vážim každú prácu, ale ľudia, ktorí predtým okopávali, teraz nebudú vyvíjať umelú inteligenciu, robiť youtuberov alebo robiť neurochirurgické operácie. To nejde tak ľahko. V nových profesiách sa určite neuplatnia všetci.
Ešte sa pozrime na ohrozenie súkromia. Sľubujem, že to už bude posledný film (smiech). The Circle. Pamätáte si scénu, ako sa mladé dievča rozhodlo verejne zdieľať všetky momenty svojho života so sledovateľmi potom, keď ukradlo kajak a takmer dosť zle dopadlo?
Toto už aktuálne hrozí aj dnes. Keď som teraz išiel k vám, pozrel som si mail, ktorý som od vás dostal, kam mám prísť. Mobil sleduje moju polohu, kde sa nachádzam. Platím ním, posielam ním množstvo vecí nielen pracovných, ale aj z osobného života, keď vyjadrujem svoje názory mojim blízkym ľuďom. Píšeme o politike, hľadáme tovar, všade zanechávame elektronické stopy. Virtuálny priestor vie, kde a čo nakupujem, čo si myslím. Vie aj veci, ktoré nepoviem ani svojim priateľom. A keď je k dispozícii dostatočne výkonná umelá inteligencia, vie z tých dát vydolovať toľko, čo o sebe neviem ani sám. Urobí si môj ekonomický, politický alebo psychologický profil. Stále vám budú pri odklikávaní súhlasov a povolení tvrdiť, že je to pre vaše dobro, pre poskytnutie lepšieho tovaru a služieb. Ale už o vás budú veľa vedieť. Aj viac, ako vy sami. A keď sa to dostane do nesprávnych rúk, ktovie, čo s tým kto v konečnom dôsledku spraví.
Zaujímala by ma aj téma umelej inteligencie a plagiátorstva; aj na toto používanie sú rôzne názory. Ktorý smer predpokladáte? Prehĺbi to lenivosť, alebo zefektívni učenie?
Aj tu som pesimista. Plagiátorstvo je, keď použijem zdroje, ktoré neodcitujem. Keď ChatGPT za mňa vypracuje domácu úlohu alebo vedecký článok, môže aj citovať nejaké zdroje. Ale aj to je na diskusiu. Zatiaľ totiž nemá problém ani s neoverenými zdrojmi, ktoré by seriózny vedec nikdy nepoužil. Ale toto by ešte taký problém v dlhodobom horizonte nebol, môže sa to zlepšiť. Faktom však je, že danú úlohu nevypracoval človek, ktorý je dolu podpísaný. Tým pádom ide tiež o plagiátorstvo. Či sa nám to páči, alebo nie. O také isté, ako keď za žiaka napíše sloh mama.
A my nevieme posúdiť, či by bol toho aj sám schopný.
Nevieme. A domácimi úlohami sa to môže začať a rozhodovaním pokračovať. Stroje za nás intelektuálne činnosti bez problémov urobia. A čo potom? Budeme sa možno vedieť dobre pýtať. A je dosť možné, že to raz bude všetko, čo dokážeme. Čo bude s našou inteligenciou? V minulosti sme museli riešiť rôzne problémy života, aby sme prežili. Ľudská inteligencia sa vyvíjala tým, že sme riešili problémy, čoraz zložitejšie. Ale keď všetky za nás začnú riešiť stroje? Neviem to nazvať inak, ako hlúpnutie ľudskej civilizácie.
Cesta najmenšieho odporu.
Tak. Človek nebude robiť, čo nemusí.
Skúšali ste už tomu chatu niečo zadať?
Áno, požiadal som ho napríklad, aby napísal program, ktorý mám ako zadanie v prvom týždni tohto semestra. Vychrlil mi za desať sekúnd to, čo majú študenti urobiť za týždeň. A prečo by to aj oni neurobili takto, keď sa chcú radšej zabávať. Toto nebude podporovať trénovanie mozgu, ale skôr degradáciu intelektu. Budeme sa musieť nejako brániť. Pričom zdôrazňujem, že určite nie som zástanca toho, aby sa zakazovalo používanie nových technológií či umelej inteligencie. Ale musíme sa adaptovať a zabezpečiť, aby sme v tých hlavách niečo mali. Aj keď to za nás stroj spraví rýchlo, efektívne aj dobre.
Ako si predstavujete overovanie, spôsob kontroly? Dajme tomu v duchu dopĺňania písomných skúšok ústnymi?
Tak; riešenia nemusia byť ani zložité. My síce nevieme skontrolovať, akým spôsobom žiak alebo študent danú úlohu spraví. Stroje mu enormne zjednodušia námahu pri získavaní informácií a znalostí aj pri robení úloh, najmä v porovnaní s minulosťou, keď si musel požičiavať a zháňať knihy, prednášky a tak ďalej. Ale každopádne budeme musieť overiť, či získané vedomosti dostal do vlastnej hlavy. Jednou možnosťou bude viesť s ním dialóg, tam sa nedá podvádzať, bez implantovanej elektroniky v hlave (úsmev). Ale teraz vážne, reálne nás možno aj toto raz čaká, ide však už o inú tému. Pri dialógu teda prídem na to, či vie riešiť tie úlohy. Alebo na papieri, prípadne na počítači, ktorý je izolovaný od internetu. A hlavne, či vie tie znalosti prakticky použiť. A tu sme pri zmenách, ktorým sa nevyhneme. Legislatíva, školstvo, predpisy... všetko sa tomu bude musieť prispôsobiť. A zrejme dosť rýchlo.
Poďme ešte k jednej hypotetickej situácii, ktorú ste už, ak sa nemýlim, naznačili v inom rozhovore. Bude reálne, že vznikne video s človekom, kde povedal, čo nepovedal? S, predpokladám, veľmi komplikovaným vyviňovaním? Keď sa už vlastným zmyslom nebude dať veriť?
Ide o videá, ktoré sú manipulované. Nie iba že niekto niekde myšlienku napíše, ale ju aj artikuluje. Bude to rafinované, presvedčivé, ľudskými zmyslami nepostihnuteľné. A zneužiteľné na čokoľvek. Politik bude musieť vysvetliť, že niečo nepovedal. Nebude skrátka všetko pravda, čo sa bude zdať, že je. Tu si tiež zatiaľ ťažko predstavujem protizbraň, ale bude nutná a bude to ťažká úloha. Tak, ako sa vyvíjajú prostriedky generatívnej umelej inteligencie, ktoré dokážu generovať video, zvuk, obraz, text, tak sa budú musieť produkovať aj metódy, ktoré to dokážu identifikovať. Možno sa bude musieť zmeniť celý systém komunikácie s verejnosťou, aj legislatíva.
Aké garancie by ste predpokladali?
Možno živé vysielania v štúdiách alebo debaty so svedkami, kde by pochybnosť nemohla vzniknúť. Nová legislatíva. Asi prídu nové technické riešenia. Inak nebude možné veriť ničomu.
Dajte ešte najhorší katastrofický scenár.
Zlý scenár bude, keď budú ľudia používať čoraz výkonnejšiu umelú inteligenciu sami proti sebe. Ale katastrofický? Nechcem šíriť paniku, je to zatiaľ iba v rovine špekulácií. Ale podľa mňa je najzásadnejšia otázka tá, ktorú som už spomenul. Či inteligentný stroj môže nadobudnúť vedomie. V tej chvíli sa totiž končia naše záujmy a ciele, ktorými stroje zatiaľ poverujeme, a nastúpia tie ich. Ak budú veľmi inteligentné, oveľa viac, ako my, a budú mať vedomie, prečo by nás poslúchali? Vezmime si istú analógiu: ako sa ľudia správajú k hlodavcom alebo k dotieravému hmyzu? Alebo ako sa správali kolonizátori, ktorí prišli z Európy do Ameriky? Budú k nám inteligentnejšie stroje s vedomím prechovávať úctu, za to, že sme ich vytvorili? Toto môže viesť k nepredvídateľným výsledkom.
Ako nás teda podľa vás vyhodnotia?
Buď ako hrozbu, alebo - druhá možnosť - ako niečo, čo ich nemôže vážne ohroziť. No a z tohto vyplýva taký celkom optimistický scenár, ktorý by sme mohli dať na záver. Ľudstvo sa bude správať zodpovedne a stroje budú slúžiť k jeho dobru. Budú vykonávať ťažkú prácu, rutinné činnosti, kvalifikovanú, tvorivú a vedeckú prácu a budú ľuďom iba na prospech. Pomôžu nám zachrániť klímu, udržať mier. Ľudia úplne nezhlúpnu, budú sa vzdelávať a trénovať svoje mozgy, aspoň do istej miery, a budú vykonávať profesie, ktoré sú vhodnejšie pre človeka, než pre stroj. Stroje nebudú potrebovať ani vzduch, ktorý dýchame, ani naše potraviny. Budeme sa musieť podeliť iba o niektoré suroviny. Energie je pre všetkých dosť zo Slnka. Takto by sme mohli vedľa seba existovať. Budúca realita bude oscilovať niekde medzi týmito extrémami.
Text: Katarína Macková
Foto: Tibor Rózsár, Ústav robotiky a kybernetiky FEI STU