Technologický vývoj překonává člověka ve stále více odvětvích. V šachové hře počítač vyhrál už dávno. Nedávno člověka porazil dokonce v pokeru – což se kvůli elementu blafování dlouho považovalo za nemožné. Kam vztah člověka a umělé inteligence směřuje?
- Vznikají nové druhy systémů pro podporu ovládání strojů, nebo dokonce stroje samořídící (auta apod).
- Počítačové programy jsou již schopné psát si vlastní kód.
- Součástí vybavení letadel a jiných zařízení je stále větší automatizace usnadňující provoz.
- Významný pokrok zaznamenaly i tzv. expertní systémy (umožňující dělat složitá rozhodnutí na základě znalostí „expertů“), často používané například v lékařství.
- Podobné systémy jsou testovány i v soudnictví – kde byly schopny pouze podle vzorců v dokumentaci odhadnout úspěšný výsledek až v 78 % případů.
Stroje lidskou práci nejen zvládají, ale často už ji dovedou svou kvalitou překonat. Důvod je jasný: stroje mají proti lidem v řadě oblastí (například v počítání, kontrole a kvantitativních úkolech) navrch. To vše bez rizik vlastních lidskému faktoru, jako je únava nebo momentální psychické rozpoložení.
I když je lidský přínos nepostradatelný například v kreativní práci, dlouhodobém plánování a improvizaci, pořád jsme „jen lidé“ i se svými nedokonalostmi.
Chybovat je lidské
Možná jste už někdy viděli graf ukazující vliv přestávek na propouštění vězňů. Podle profesora Shai Danzigera z Ben‑Gurion University of the Negev mají vězňové větší šanci na omilostnění ráno a v časech po jídle – tedy když je soudce odpočatý a v lepší náladě.
Jelikož je nepravděpodobné, že by vězni, o nichž se jedná právě v těchto termínech, byli vhodnějšími kandidáty na propuštění, můžeme takové rozhodnutí považovat za chybu (bias), které by se stroj nedopustil a podal by přesnější výsledek.
Dalo by se dokonce argumentovat, že pokud existuje možnost podat statisticky lepší výsledek (což by výkon podaný stroji mohl být), mělo by být morální povinností ho použít. Obzvlášť platné by to bylo v lékařství, kde na lidských rozhodnutích – i s jejich chybami a nedostatky – závisí lidské zdraví a někdy i životy.
Nicméně… i když takové argumenty mohou znít přesvědčivě, stejně vás také nejspíš napadne, že přenechat rozhodování o něčím životě nebo svobodě čistě na strojích je trochu děsivé. A právem.
Zvyšování automatizace a závislosti na strojcích přináší samozřejmě řadu problémů:
Co nepoužíváme, to atrofuje
V článku Příliš snadný život zmiňuji příklad pilotů, kteří kvůli zvýšené automatizaci při řízení začali chybovat – kvůli tomu, že pro ně létání začalo být moc snadné. Nebyli tak pozorní jako dřív. To vše jako důsledek toho, že jim někdo jiný práci usnadnil – nějaký přístroj. Co nepoužíváme, to začne slábnout a zanikat.
Důsledky tohoto efektu můžeme sledovat sami na sobě. Kolik z nás se dnes namáhá pamatovat si telefonní čísla svých blízkých, když jsou v mobilu k dispozici po pár kliknutích. Nebo jaký máme přehled o okolí v novém prostředí, když se může navigovat mnohem snáze pomocí GPS.
Je tedy možné, že představa otupělých a líných „blobů“ z filmu WALL‑E se teoreticky může vyplnit. S trendem inteligentních věcí (ať už aut, ledniček nebo celých domů) se tímto směrem začínáme ubírat. S rostoucími technickými možnostmi a trhem tlačeným inovacemi a ziskem bude možné automatizovat více činností než kdy dřív.
Možná se dočkáme doby, kdy věci jako nákupy, úklid nebo i zařizování denní agendy budou pomáhat řídit programy. A i když to nese určité výhody, lidé se tím stanou na technologiích o krok víc závislými.
A jak vidíme na příkladu pilotů v automatizovaných letadlech, problém takové závislosti není jenom v případném riziku výpadku (jako při výpadku dovážení jídla, kdy by člověk, který si odjakživa nechával jídlo přivézt, mohl mít problém vůbec si zařídit nákup), ale i v řadě věcí, které se nám nemusí ani povést předvídat.
Etická dimenze – zodpovědnost za rozhodování
Další otázka je, jak bychom reagovali, pokud by u rozhodování stroje došlo k chybě. Přestože správně použité stroje mohou dávat statisticky přesnější výsledky (v porovnání s člověkem), nikdy nebudou stoprocentní. A důsledky výpadků, pokud s pokročilostí takových strojů bude na jejich výsledku záviset stále víc, mohou být velmi vážné.
Příkladem selhání stroje může být tzv. Flash Crash z roku 2010, kdy chyba algoritmu zajišťujícího burzovní obchody způsobila výpadek v hodnotě trilionů dolarů.
To, že stroje nejsou samospásné, je třeba si uvědomovat i proto, že mnoho zmiňovaných expertních systémů (systémů předkládající na základě vstupu „expertní“ znalosti – rady) je používáno právě v oblasti zdravotnictví, kde jsou rizika skutečně vysoká.
Je otázka, jak by člověk, který přijde o zdraví, příbuzného, práci nebo dům důsledkem rozhodnutí algoritmu (ať dle rozhodnutí, statistické chyby nebo neočekávaného problému), reagoval – v porovnání se situací, kdy by se tak stalo důsledkem lidského rozhodnutí nebo lidské chyby. A také na koho by v tu chvíli padla zodpovědnost.
Opravdu to chceme?
Myslím, že předávání námahy je špatná myšlenka už ve své podstatě. S kvalitou výsledků strojů se ale lidé často mohou jen těžko měřit. Postupující automatizaci se proto podle mě vzhledem k technickému vývoji jen tak nevyhneme. Ve finále zůstává na nás jako uživatelích, do jaké míry se necháme technologiemi ovlivnit.
Co pro sebe můžeme jako jednotlivec udělat je přistupovat k technologiím s větším zamyšlením, nikoli slepě automatizovat všechno, co jde – i když to na první pohled může vypadat jako dobrý nápad. Se znalostí možných rizik je pak na každém z nás, abychom s každým novým „zjednodušujícím“ nástrojem dávali pozor, zdali nám stroje vůbec ještě pomáhají.
Je to podobné řešení, jaké se dnes čím dál víc uplatňuje v souvislosti s informačním zahlcením. Stále častěji si lidé záměrně a plánovaně omezují a vybírají, jaké zprávy se k nim budou na denní bázi dostávat. Podobný přístup je podle mě prospěšný i ve vztahu k technologiím obecně.
Tento článek nemá být mířen proti technologii a pokroku jako takovému – ale spíše proti jejímu slepému používání bez zamyšlení nad důsledky. Výsledky strojů mohou být sice lepší a jejich používání prospěšné, nicméně úplné odevzdání se jim představuje problém.
Co má nebo nemá smysl automatizovat, to je podle mě spíš individuální – nicméně stanovení vlastních hranic, které činnosti má smysl předat nebo automatizovat, a které ne, je podle mě klíčové, aby se člověk mohl zlepšovat a růst tak, jak sám chce – ne jak ho bude tlačit okolí.
Tato úvaha funguje podobně jako např. vztah mezi výkonností a bezpečností. Ve své podstatě jdou tyto principy proti sobě (příliš mnoho kontrol zvýší bezpečnost, ale zpomalí výkon a naopak), nicméně reálně potřebujeme oboje. A je důležité umět říci, kdy už nevýhody překračují výhody.
Můj kolega počítač
Na závěr bych se chtěl vrátit k příkladu strojů a šachů ze začátku. Stroje sice dovedly porazit člověka, nicméně nejlepší hráč planety podle koeficientu ELO není samotný počítač, ale kombinace počítač‑člověk.
Ve vojenství, kde se kombinace rozhodovací techniky a člověka používá běžněji (například při řízení stíhaček, kde stroje provádějí pomocné úkony, kterých člověk ani není schopen), se takovému spojení nyní říká „kentaur“.
Stroje v takové podobě člověka a jeho rozhodování nenahrazují, ale pouze doplňují – umožňují mu dělat rychlejší a přesnější rozhodnutí se zachováním kreativity a flexibility lidské složky („cognitive teaming“).
Využívejte celý web.
PředplatnéJe možné, že právě toto se stane realitou dalšího vývoje – kombinace lidské flexibility a počítačové logiky. V takové podobě by vývoj člověka ani nevyloučil z rozhodování, jen ho posunul z běžného prostředí do oblasti částečně generované stroji. Těch se podle Garyho Kasparova nemusíme bát, když se s nimi naučíme spolupracovat.
Tento koncept je stále relativně mladý a je třeba vyřešit řadu problémů – přehodnotit rozhodovací role, promyslet dopad abstrakce prostředí tvořeného stroji i přirozenou lidskou lenost ve spoléhání na výsledky strojů (tak, aby nedošlo k problémům jako u automatizace v letectví) a překonat řadu dalších překážek, které v tuto chvíli nemusí být ani zřejmé.
Bude to těžký úkol, nicméně… co jiného nám zbývá.