Umělá inteligence ve skutečnosti není tak inteligentní

Úzké aplikace umělé inteligence, jako je vyhledávač Google nebo Amazon Alexa, jsou skvělé při řešení konkrétních problémů, ale jen do té doby, dokud se držíte scénáře.

Umělá inteligence (AI) je všude, od samořídících aut po tančící roboty v reklamách. Problémem všech těchto příkladů umělé inteligence však je, že nejsou skutečně inteligentní. Spíše představují úzkou AI – aplikaci, která dokáže vyřešit konkrétní problém pomocí technik umělé inteligence. A to se velmi liší od toho, čím disponujeme vy a já.

Lidé (snad) vykazují obecnou inteligenci. Jsme schopni řešit širokou škálu problémů a naučit se řešit ty problémy, se kterými jsme se dříve nesetkali. Jsme schopni se učit novým situacím a novým věcem. Chápeme, že fyzické objekty existují v trojrozměrném prostředí a podléhají různým fyzikálním vlastnostem, včetně plynutí času. Schopnost uměle replikovat schopnosti myšlení na úrovni člověka neboli umělá obecná inteligence (AGI) v tom, co dnes považujeme za umělou inteligenci, prostě neexistuje.

Tím nechci nic ubírat na ohromujícím úspěchu, který AI doposud zaznamenala. Vynikajícím příkladem AI, kterou většina lidí pravidelně používá, je vyhledávač Google. Google je schopen prohledávat objemy informací neuvěřitelnou rychlostí, aby (obvykle) poskytl výsledky, které uživatel chce mít blízko vrcholu seznamu.

Podobně hlasové vyhledávání Google umožňuje uživatelům vyslovovat požadavky na vyhledávání. Uživatelé mohou říci něco, co zní nejednoznačně, a zpět dostanou výsledek, který je správně napsaný, napsaný velkými písmeny, s interpunkcí a navíc obvykle tak, jak to uživatel myslel.

Jak to, že to tak dobře funguje? Google má k dispozici historická data o bilionech vyhledávání a o tom, jaké výsledky uživatel vybral. Na základě toho může předvídat, která vyhledávání jsou pravděpodobná a které výsledky budou pro systém užitečné. Neočekává se však, že by systém rozuměl tomu, co dělá, nebo některým výsledkům, které předkládá.

To zdůrazňuje požadavek na obrovské množství historických dat. Ve vyhledávání to funguje docela dobře, protože každá interakce uživatele může vytvořit položku trénovací sady dat. Pokud je však třeba trénovací data ručně označit, jedná se o náročný úkol. Navíc se jakékoliv zkreslení v trénovací množině promítne přímo do výsledku. Pokud je například vyvíjen systém pro předpovídání kriminálního chování a je vyškolen pomocí historických dat, která obsahují rasovou zaujatost, bude výsledná aplikace také rasově zaujatá.

Osobní asistenti, jako je Alexa nebo Siri, se řídí skripty s mnoha proměnnými, a jsou tak schopni vytvořit dojem, že jsou schopnější, než ve skutečnosti jsou. Jak ale všichni uživatelé vědí, cokoli řeknete, co není ve skriptu, přinese nepředvídatelné výsledky.

Jako jednoduchý příklad lze uvést otázku osobního asistenta: „Kdo je Václav Klaus?“. Fráze „Kdo je“ spustí vyhledávání na webu podle proměnné zbytku fráze a pravděpodobně přinese relevantní výsledek. Díky mnoha různým spouštěčům skriptů a proměnným systém vytváří zdání určitého stupně inteligence, zatímco ve skutečnosti provádí manipulaci se symboly. Kvůli tomuto nedostatku základního porozumění pouze 5 % lidí tvrdí, že je používání hlasového vyhledávání nikdy nefrustruje.

Masivní program, jako je GPT3 nebo Watson, má tak působivé schopnosti, že koncept skriptu s proměnnými je zcela neviditelný, což jim umožňuje vytvářet zdání porozumění. Jejich programy se však stále dívají na vstup a vytvářejí konkrétní výstupní odpovědi. Soubory dat, které jsou základem odpovědí umělé inteligence („skripty“), jsou nyní tak rozsáhlé a proměnlivé, že je často obtížné všimnout si základního skriptu – dokud uživatel ze skriptu nevybočí. Stejně jako v případě všech ostatních citovaných příkladů UI, zadání vstupu mimo skript povede k nepředvídatelným výsledkům. V případě GPT-3 je tréninková množina tak velká, že odstranění zkreslení se zatím ukázalo jako nemožné.

Závěr? Základním nedostatkem toho, co dnes nazýváme umělou inteligencí, je nedostatek porozumění zdravému rozumu. Do značné míry je to způsobeno třemi historickými předpoklady:

Základním předpokladem většiny vývoje umělé inteligence v posledních 50 letech bylo, že jednoduché problémy inteligence se vyřeší, pokud dokážeme vyřešit ty složité. Bohužel se ukázalo, že to byl mylný předpoklad. Nejlépe to bylo vyjádřeno jako Moravcův paradox. V roce 1988 Hans Moravec, významný robotik z Carnegie Mellon University, prohlásil, že je poměrně snadné přimět počítače, aby v testech inteligence nebo při hraní dámy vykazovaly výkony na úrovni dospělého člověka, ale je obtížné nebo nemožné dát jim schopnosti ročního dítěte, pokud jde o vnímání a pohyblivost. Jinými slovy, často se ukáže, že obtížné problémy jsou jednodušší, a zdánlivě jednoduché problémy se ukáží jako neúměrně obtížné.
Dalším předpokladem je, že kdybyste vytvořili dostatek úzkých aplikací umělé inteligence, přerostly by dohromady v obecnou inteligenci. I to se ukázalo jako nepravdivé. Úzké aplikace umělé inteligence neukládají své informace v zobecněné podobě, aby je mohly využít další úzké aplikace umělé inteligence k rozšíření šíře. Aplikace pro zpracování jazyka a aplikace pro zpracování obrazu lze sešít dohromady, ale nelze je integrovat tak, jako dítě bez námahy integruje zrak a sluch.

A konečně, převládl obecný pocit, že kdybychom dokázali postavit dostatečně velký systém strojového učení s dostatečným počítačovým výkonem, spontánně by projevil obecnou inteligenci. To připomíná doby expertních systémů, které se snažily zachytit znalosti z určitého oboru. Tyto snahy jasně ukázaly, že není možné vytvořit dostatek případů a příkladových dat, aby se překonal základní nedostatek porozumění. Systémy, které jednoduše manipulují se symboly, mohou vytvářet zdání porozumění, dokud nějaký požadavek „mimo scénář“ neodhalí omezení.

Proč nejsou tyto problémy hlavní prioritou průmyslu umělé inteligence? Stručně řečeno, sledujte peníze.

Vezměme si například přístup k vývoji budování schopností, jako je skládání kostek na sebe, pro tříleté dítě. Je samozřejmě zcela možné vyvinout aplikaci umělé inteligence, která by se naučila skládat kostky stejně jako ono tříleté dítě. Je však nepravděpodobné, že by se na ni dostalo financování. Proč? Zaprvé, kdo by chtěl vložit miliony dolarů a roky vývoje do aplikace, která provádí jedinou funkci, kterou umí každé tříleté dítě, ale nic jiného, nic obecnějšího?

Větším problémem však je, že i kdyby někdo takový projekt financoval, umělá inteligence nevykazuje skutečnou inteligenci. Nemá žádné situační povědomí ani porozumění souvislostem. Navíc jí chybí jedna věc, kterou umí každé tříleté dítě: stát se čtyřletým a pak pětiletým a nakonec desetiletým a patnáctiletým. Mezi vrozené schopnosti tříletého dítěte patří schopnost vyrůst v plně funkčního, obecně inteligentního dospělého člověka.

Proto termín umělá inteligence nefunguje. O žádnou inteligenci zde prostě nejde. Většina toho, čemu říkáme umělá inteligence, je založena na jediném algoritmu, zpětném šíření. Označuje se to přezdívkami hluboké učení, strojové učení, umělé neuronové sítě, dokonce i neuronové sítě s hroty. A často je prezentována jako „pracující jako váš mozek“. Pokud si místo toho představíte umělou inteligenci jako výkonnou statistickou metodu, budete blíže k cíli.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna.