V posledních měsících rezonují společností obavy týkající se vývoje umělé inteligence. Lidé se bojí zejména potenciálního zneužití dat a vytváření nekontrolovatelných dezinformací či pomluv. Na žádost Bílého domu se nyní sedm hlavních jmen v oblasti AI dobrovolně zavázalo k dodržování zásad pro bezpečný a zodpovědný výzkum.

Se žádostí Bidenovy administrativy, která se snaží o to, aby byla umělá inteligence pro společnost prospěšná a negativně neovlivňovala bezpečnost, práva a demokratické hodnoty, souhlasily firmy Microsoft, Google, OpenAI, Amazon, Meta, Anthropic a Inflection. Mimo jiné přislíbily, že zapracují na vývoji systému vodoznaků, jehož smyslem bude informovat uživatele o tom, že byl daný obsah vytvořen umělou inteligencí.

Aktuálně se počítá s tím, že zmíněná jména začnou na implementaci nových systémů a snaze dodržovat dohodnuté zásady pracovat okamžitě. Teoreticky jim ale nehrozí žádný postih, pakliže nebudou ustanovení dodržovat, jelikož se jedná o dobrovolný příslib, nikoliv nařízení.

„Tyto závazky, které se společnosti rozhodly přijmout okamžitě, zdůrazňují tři zásady, které musí být pro budoucnost umělé inteligence zásadní - bezpečnost, zabezpečení a důvěru - a představují zásadní krok k rozvoji odpovědné umělé inteligence,“ uvádí ve zprávě Bílý dům.

„Dnešní oznámení je součástí širšího závazku administrativy Biden-Harrisové zajistit bezpečný a odpovědný vývoj umělé inteligence a chránit Američany před újmou a diskriminací,“ dodává.

Sedmero AI velikánů se dohodlo na následujících osmi bodech, informoval Bílý dům:

  • Interně a externě testovat bezpečnost systémů umělé inteligence před jejich uvolněním
  • Sdílet informace napříč odvětvím s vládami, občanskou společností a akademickou obcí
  • Investovat do kybernetické bezpečnosti a ochrany před vnitřními hrozbami, aby ochránily vlastní a nezveřejněné modelové váhy
  • Usnadnit třetím stranám odhalování a hlášení zranitelností ve svých systémech umělé inteligence
  • Vyvinout spolehlivé technické mechanismy, které zajistí, aby uživatelé věděli, kdy je obsah vytvořen umělou inteligencí, například systém vodoznaků
  • Veřejně informovat o schopnostech, omezeních a oblastech vhodného a nevhodného použití svých systémů umělé inteligence
  • Upřednostňovat výzkum společenských rizik, která mohou systémy umělé inteligence představovat, včetně předcházení škodlivým předsudkům a diskriminaci a ochrany soukromí
  • Vyvíjet a nasazovat pokročilé systémy umělé inteligence, které pomohou řešit největší společenské výzvy

Zpravodajský portál The Verge uvádí, že Bidenova administrativa v současné době chystá exekutivní příkaz, jehož cílem bude řešit možná rizika spojená s umělou inteligencí. Novinářům to měl sdělit úředník Bílého domu během čtvrtečního telefonátu.