Warning: Invalid argument supplied for foreach() in /www/doc/www.6dhub.cz/www/templates/6dhub/html/com_k2/default/item.php on line 37
Už teď je jisté, že superinteligentní AI nebude možné kontrolovat
Technologie

Už teď je jisté, že superinteligentní AI nebude možné kontrolovat

10.05.21

Klára Ponczová, 02. 01. 21

Zachytili jsme znepokojující vzkaz z 23. století: „Nedokázali jsme vůbec rozpoznat, že jde o superinteligentní AI. A teď už ji vůbec nejsme schopni zastavit.“

Nová studie uvádí, že pro lidi může být teoreticky nemožné ovládat superinteligentní umělou inteligenci. Ještě horší je, že výzkum popírá i jakoukoli naději na detekci takovéto nezastavitelné AI v okamžiku jejího stvoření. Uklidnit nás však může skutečnost, že takovéto zúčtování AI s lidstvem nás nejspíš několik dalších desetiletí nečeká.

„Poté, co umělá inteligence dokázala porazit nejlepší světové myslitele v aktivitách, jako jsou šachy nebo čínská desková hra Go, objevily se obavy, že superinteligentní stroje budou chytřejší než největší lidští myslitelé. Samotná otázka, zda ještě bude v okamžiku jejího vzniku možné superinteligentní AI ovládat, je tak relativně stará,“ říká hlavní autor studie Manuel Alfonseca, počítačový vědec z Autonomní univerzity se sídlem v Madridu. „Stačí se ohlédnout zpátky na první Asimovův robotický zákon, který vznikl už v 50. letech minulého století.“

Tři zákony robotiky

Zákony, které Isaac Asimov v roce 1942 představil světu ve své vědeckofantastické povídce Hra na honěnou, byly tři a zněly následovně:

  1. Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
  2. Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem.
  3. Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním, nebo druhým zákonem.

V roce 2014 filozof Nick Bostrom, ředitel Institutu budoucnosti lidstva na univerzitě v Oxfordu zmapoval nejen způsoby, jakými by nás mohla superinteligetní AI zničit, ale i potenciální kontrolní strategii, která by jí v tom měla zabránit. Jako správný filozof však tehdy samozřejmě vymyslel i důvody, proč uvedená strategie nemusí fungovat.

Vychovat si hodnou AI

Bostrom nastínil dva možné přístupy k udržení kontroly nad superinteligentní AI. Prvním z nich je kontrolovat, co umělá inteligence může dělat a zabránit jí například v připojení k internetu. Tím druhým je „učit ji“ hodnotám a pravidlům, aby vždy fungovala pouze v nejlepším zájmu lidstva.

Problémem první teorie je, že superinteligentní AI by pravděpodobně rychle našla cestu, jak naše zákazy obejít. Problém druhé je ten, že lidé jednoduše nemusí být dost chytří, potažmo moudří na to, aby superinteligetní AI ve prospěch lidstva „dobře vychovali“.

Nenaprogramovatelné dobro

Alfonseca a jeho kolegové nyní naznačují, že superinteligentní AI nebude možné ovládat už kvůli limitacím doprovázejícím samotné programování.

Jakýkoli algoritmus, který by se totiž snažil zajistit, aby superinteligentní AI nikdy neublížila lidem, by totiž musel dokázat předpovědět její chování, aby mohl definovat potenciální důsledky každé z jejích akcí. V tomto chování by pak stroji bránil.

Vědci však uvádí, že je prakticky nemožné, aby jakýkoli algoritmus s absolutní jistotou odhalil, která konkrétní aktivita povede k ublížení. „Ukazuje se, že první Asimovův robotický zákon je prakticky nenaprogramovatelný,“ říká Alfonseca, „a přesně z tohoto důvodu je logicky nedodržitelný.“

Tím se dostáváme k Riceově teorému, který tvrdí, že člověk nedokáže přesně předpovědět, co všechno by mohl počítačový program dokázat, z pouhého pohledu na něj, jak vysvětluje Alfonseca. Možná tak ani nezjistíme, že už jsme superinteligentní AI vytvořili.

Dejte strojům dvě stě let

S ohledem na aktuální vývoj AI to však úplně nevypadá, že budeme v nejbližší době hromadně opouštět města a přenechávat je našim robotickým vládcům. Máme tady totiž tři velké neznámé, které znepokojivým úvahám vědecké skupiny ubírají na naléhavosti.

Za poprvé se dle Alfonseca  „moment pravdy“, který ukáže, jak to se superinteligentní AI vlastně reálně je, odehraje nejdříve za dvě století.  Za druhé si vědci stále nejsou zcela jistí, zdali je Obecná umělá inteligence (to znamená, že stroj bude stejně inteligentní jako my v široké škále oblastí) vůbec realizovatelná. A za třetí se dosud neprokázalo, že superinteligentní AI nebudeme mít pod kontrolou nikdy a nijak, jen to, že ji pravděpodobně nemusíme mít pod kontrolou vždy.

Hudba budoucnosti nebo…

Možná, že nakonec nedokážeme kontrolovat Obecnou umělou inteligenci (Strong AI), kterou ale možná ani nedokážeme vytvořit. Ale dokážeme kontrolovat slabou umělou inteligenci (Weak AI), tedy takovou, která exceluje v konkrétní dovednosti spíše než v širokém spektru dovedností jako to umí člověk.

„Slabá umělá inteligence už existuje,“ říká Alfonseca a pokračuje: „Máme přece počítače, které dovedou provádět výpočty mnohem rychleji, než to zvládneme my. A to je přece druh slabé inteligence… Nebo snad není?“

Tento článek je chráněn pomocí blockchainové služby Mytitle.

Související