RIZIKA SPOJENÁ S VYUŽÍVÁNÍM UMĚLÉ INTELIGENCE

S rostoucím využíváním nástrojů umělé inteligence je nezbytné vnímat nejen její přínosy, ale i možná rizika. Rizika mohou zahrnovat například zkreslené výstupy algoritmů, narušení soukromí, bezpečnostní hrozby, šíření dezinformací, ale také etické problémy spojené s automatizovaným rozhodováním nebo zneužitím AI v akademickém prostředí (např. při hodnocení prací či podvádění).

Cílem této části webu je nabídnout užitečné odkazy a podporovat debatu o tom, jak tato rizika včas rozpoznat, vyhodnocovat a aktivně jim předcházet – nejen v technickém, ale i společenském, právním a etickém kontextu.

​Centrum Karla Čapka pro studium hodnot ve vědě a technice publikovalo zprávu „Etická pravidla regulace AI“, která se zabývá potřebou etické regulace vývoje a využívání umělé inteligence. Cílem je zajistit, aby AI respektovala základní lidská práva, hodnoty a etické principy, a zároveň byla technicky robustní a spolehlivá. Zpráva zdůrazňuje význam důvěryhodné AI, která nepovede k morální panice či odmítání jejích aplikací ve společnosti. ​Dokument také analyzuje situaci v České republice, poukazuje na nedostatek odborníků v oblasti etiky AI a navrhuje vytvoření etických směrnic regulujících výzkum, vývoj a aplikaci AI v praxi.

​Kempelenův institut inteligentních technologií (KInIT) je nezávislá nezisková organizace se sídlem na Slovensku, která se zaměřuje na výzkum a vývoj v oblasti umělé inteligence a dalších oblastí informatiky. Jeho posláním je propojit špičkový výzkum s praktickými aplikacemi pro lidi a průmysl. Na stránkách naleznete informace o institutu, jeho výzkumných oblastech, vzdělávacích aktivitách, aktuálních pracovních příležitostech, novinkách a možnostech spolupráce. Mezi hlavní výzkumné oblasti patří zpracování webových a uživatelských dat, řešení pro udržitelné a bezpečné životní prostředí, zpracování přirozeného jazyka a etika a lidské hodnoty v technologiích. ​

Tato stránka na webu Digitální Česko shrnuje, jak jsou AI systémy rozdělovány podle úrovně rizika podle evropského Aktu o umělé inteligenci. Představuje čtyři základní kategorie: zakázané praktiky, vysoce rizikové systémy, systémy s omezeným rizikem a systémy s minimálním rizikem. Cílem klasifikace je zajistit bezpečné, transparentní a etické využívání AI v EU.

Stránka OECD věnovaná rizikům a incidentům spojeným s umělou inteligencí poskytuje informace o monitorování a analýze incidentů souvisejících s AI. OECD prostřednictvím AI Incidents Monitor (AIM) dokumentuje tyto incidenty a rizika s cílem poskytnout lepší důkazy pro tvůrce politik, odborníky a další zainteresované strany. ​
Na stránkách lze nalézt definice klíčových pojmů, jako jsou „AI incidenty“ a „AI rizika“, a také informace o snaze OECD vytvořit jednotný rámec pro hlášení těchto incidentů.

Nezisková organizace AI Future Projects zveřejnila predikce vývoje AI do roku 2027 a dále. Tým autorů, mezi nimiž jsou bývalí výzkumníci z OpenAI a další odborníci na AI bezpečnost a politiku, zde velmi podrobně popisují možné scénáře vývoje umělé inteligence v nejbližších letech – včetně postupného nástupu AGI (obecné umělé inteligence), dopadů na pracovní trh, geopolitiky, bezpečnost i případné riziko „vytržení AI z přímé kontroly člověka“. Tyto předpovědi vyvolaly řadu více či méně kritických reakcí. Zde naleznete odkaz na jednu z nich od výzkumníka Maxe Harmse spojeného s Machine Intelligence Research Institute (MIRI). Rozhovor o tomto materiálu v čestině najdete na stránkách ČRo v podcastu Vinohradská 12.