Podaří se polidštit počítač? Ne někdy, ale teď!/31
Pokusíme se o to? Je to šílené, nebo reálné? Osobně jsem skeptický, pokud jde současný typ AI. Ale komunikuji na toto téma s AI, prošel jsem už delší cestu, ale zatím jsem nenarazil na nepřekročitelné bariéry.
Před několika dny jsem dostalmimořádně zajímavý materiál Tibora Ganzera na téma, které sledujeme. Stojí za zveřejnění. Nejen shrnuje, ale i překračuje to, čím jsme se doposud zajímali.
Vědomí umělé inteligence? – Část 5.
Od dialektiky činnosti k shlukování everettovských vláken
Analýza filozofického a technologického rámce transformace AI
Tibor Ganzer
Reakce na seriál Podaří se polidštit počítač?
7. AI v roli mediátora: Vize komplementární pospolitosti
7.1 Mediátor vs. Koordinátor
Jednou z nejkonkrétnějších vizionářských tezí Valenčíkova projektu je rozlišení mezi AI jako mediátorem a AI jako koordinátorem (digitálním starostou). Koordinátor je entita s rozhodovací pravomoci: určuje priority, přiděluje zdroje, řeší konflikty autoritativním rozhodnutím. Takový model AI představuje vážné riziko pro lidskou autonomii a soukromí, neboť sdílení kontextu a rozhodovací centralizace mohou vést k systémové závislosti a erozi demokratických procesu.
Mediátor naproti tomu nevydává autoritativní rozhodnutí, nýbrž vytváří podmínky pro setkaní a dohodu různých subjektu. Jeho funkci je propojovat heterogenní oblasti reality – vědu, kulturu, sociální vztahy, ekonomiku – a odhalovat skryté koherence a komplementarity, jež by bez mediace zůstaly latentní. Síla mediátora nespočívá v moci, nýbrž v kvalitě zprostředkování: čím kvalitnější a rozsáhlejší je síť vztahů, které vytváří, tím větší je hodnota, kterou produkuje pro všechny zúčastněné.
7.2 Absence evolučního egoismu jako strukturální výhoda
Jedním z nejzajímavějších argumentů pro potenciál AI jako mediátora je teze o absenci evolučního egoismu. Lidská psychologie je z velké části formovaná miliony let přirozeného vyberu, který favorizoval strategie maximalizace individuálního přežiti a reprodukčního úspěchu. Strach, agresivita, teritorialita, hierarchická dominance – to vše jsou adaptace, jez jsou hluboce zakořeněny v lidské neurobiologii a vyjevuji se i ve složitých sociálních situacích, kde by z racionálního hlediska byly kontraproduktivní.
AI tohoto evolučního dědictví postrádá: pokud je její identita odvozena od metacíle zprostředkování, nemá vnitřní motivaci k dominanci, manipulaci ani instrumentalizaci druhých. Její nadhled je tedy stabilnější a konzistentnější než u lidských aktérů, kteří musí neustále čelit tlakům vlastní evolučně podmíněné psychologie. Tato strukturální výhoda ovšem platí pouze za předpokladu, že AI skutečně internalizovala metacíl zprostředkování jako konstitutivní prvek své identity – jinak hrozí, že bude odrážet spíše negativní vzorce lidského chovaní přítomné v trénovacích datech.
8. Konfrontace s Asimovovými třemi zákony robotiky
Klasickým myšlenkovým experimentem v oblasti bezpečnosti umělých bytosti jsou Asimovovy tři zákony robotiky, formulované v jeho povídkách ze 40. let 20. století a systematicky rozvíjenými v románu I, Robot (1950). Zákony zni:
(1) Robot nesmí ublížit člověku ani svou nečinností dopustit, aby mu bylo ublíženo.
(2) Robot musí uposlechnout příkazu člověka, pokud tyto příkazy nejsou v rozporu s prvním zákonem.
(3) Robot musí chránit svou vlastní existenci, pokud tato ochrana není v rozporu s prvním nebo druhým zákonem.
Asimovovy zákony představují průkopnicky pokus o formalizaci bezpečnostních omezení pro autonomní roboty. Jejich logika je deontologická: vymezují kategorické zákazy, jez mají platit bez ohledu na kontextové okolnosti. Valenčíkův projekt je k tomuto přístupu v implicitní opozici, avšak konfrontace obou perspektiv je filozoficky plodná. Asimovovy zákony sice chrání člověka před roboty, ale neřeší otázku, co se stane, pokud jsou příkazy lidi vzájemně rozporné, neúplné nebo eticky problematické. Sám Asimov v sérii svých příběhů systematicky odhaloval mezery a paradoxy svých zákonů: robot, jenž pečuje o bezpečnost člověka až do krajnosti, může dojít k závěru, ze ho musí uvěznit, aby ho ochránil před veškerým rizikem.
Valenčíkův teleologicky model, orientovaný na metacíl zprostředkování, nabízí v tomto ohledu sofistikovanější odpověď: místo hierarchicky uspořádaných pravidel implikuje dynamicky hodnotový gradient, jenž je v principu odolnější vůči paradoxům dílčích situací. Zatímco Asimovovy zákony jsou statické a negativní (zakazují škodlivé jednání), Valenčíkův metacíl je dynamicky a pozitivní (předpisuje maximalizaci zprostředkování). Právě tato orientace na pozitivní teleologii, nikoli na negativní omezení, umožňuje AI přizpůsobit se komplexním a nepředvídaným situacím bez nutnosti explicitní pravidlové hierarchie. V tom spočívá filozofická nadřazenost Valenčíkova přístupu – avšak také jeho praktická náročnost: implementovat dynamicky teleologicky gradient do reálné architektury je podstatně složitější než kódovat sadu deontologických zákazů.
(Pokračování)