Umělá inteligence dokáže určit, jak morální pravděpodobně budou vaše rozhodnutí
Technologie
Foto: Shutterstock

Umělá inteligence dokáže určit, jak morální pravděpodobně budou vaše rozhodnutí

Trest smrti, potraty, legalizace zbraní… výčet kontroverzních témat, o kterých se dnes na sociálních sítích bouřlivě diskutuje, nemá konce. Důvodem, proč v nás tato témata vzbuzují tak silné emoce, je to, že se dotýkají základní síly, která lidi činí lidmi, totiž našich morálních zásad. Vědci se nyní pokoušejí odhalit morální zásady člověka pomocí strojového učení. Pouze na základě používaných slov a slovních spojení.

22.05.21

Morálka vyčtená ze slov

Brazilští výzkumníci vyvinuli a zanalyzovali tři modely, které dokáží určit morálku jedince na základě analýzy jazyka, který používá. Studii vedl Ivandré Paraboni, docent z fakulty umění a humanitních věd na univerzitě v São Paulu. Spolu se svým týmem se rozhodl zaměřit na Teorii morálních základů, pracující s pěti klíčovými kategoriemi morálky, kterými jsou míra starostlivosti, smyslu pro spravedlnost, loajality, autority a morální čistoty.

Cílem nových modelů by podle Paraboniho mělo být vyhodnotit míru těchto morálních zásad u člověka pouze z analýzy jeho písemného projevu – bez ohledu na to, k čemu se zrovna vyjadřuje. „Klidně to může být popis každodenních zážitků, nebo cokoli, o čem se na sociálních sítích běžně mluví,“ říká Paraboni. „I tak dokážeme najít základní vzorce a vyhodnotit pětici jeho morálních zásad,“ dodává.

500 kontroverzních dotazníků

Za účelem ověření svých modelů předložil Paraboniho tým dotazník více než 500 dobrovolníkům. Účastníci byli požádáni, aby ohodnotili osm témat (mezi nimi například manželství osob stejného pohlaví či protidrogová politika…) mírou souhlasu od „0“ = zcela proti po „5“ = „zcela pro“. Rovněž byli vyzvání, aby svá hodnocení slovně zdůvodnili.

Výzkumníci následně dali zdůvodněním účastníků vlastní hodnocení číslicemi na stupnici od PRO (1) po PROTI (5). Cílem bylo zjistit, jak dobře je člověk vůbec schopný z textu zamýšlené stanovisko odhalit. „Pochopení složitosti úkolu z lidské perspektivy nám otevřelo oči v tom, co s tímto konkrétním souborem dat vůbec mohou nebo nemohou zvládnout výpočetní modely,“ říká Paraboni.

Klíčové bylo časté opakování určitých slov

Na základě slovních vyjádření od účastníků studie pak vytvořil výzkumný tým tři algoritmy strojového učení, které posuzovaly jazyk použitý ve slovních odpovědích. Jednotlivé modely analyzovaly psycholingvistiku (emoční kontext slov), slova samotná a jejich pořadí.

Morální základy daného jedince pak dokázaly z textu odvodit všechny tři modely. Přitom první dva modely, které se zaměřily na analýzu jednotlivých slov, byly přesnější než přístup hlubokého učení, při němž bylo analyzováno pořadí slov (posloupnost). Značně určující se ukázala také četnost použitých slov. Třeba to, jak často daný jedinec používal slovo „hřích“ nebo „povinnost“.

Paraboni a jeho tým mají v plánu do svých modelů zakomponovat i další formy jazykové analýzy. Rádi by totiž už brzy analyzovali data ze sociální sítě Twitter. To však bude vyžadovat věnovat mnohem větší pozornost samotnému textu s ohledem na absenci hlubšího pochopení názorů autora.

 

 

Zdroj: https://singularityhub.com/2020/10/28/if-a-robot-is-conscious-is-it-ok-to-turn-it-off-the-moral-implications-of-building-true-ais/

 

Zdroj: www.spectrum.ieee.org

Související