Umělá inteligence může být dobrým sluhou, ale zlým pánem. Není tedy divu, že sečím dál více začíná svět zaměřovat také na bezpečnost jejího užívání. Společnosti napříč Zemí různé kroky pro regulaci AI a už jsme se setkali také s případy, kdy byla na pracovištích zcela zakázána. To se má týkat i Googlu.

Podle agentury Reuters, která se informace dozvěděla od čtyř lidí seznámených se záležitostí, kalifornský softwarový velikán, respektive jeho mateřská společnost Alphabet, varoval své zaměstnance před používáním chatbotů. Přitom na trhu figuruje jako jeden z hlavních vývojářů – po boku ChatGPT je totiž velice používanou službou také Google Bard, které se však stále ještě nepovedlo rozšířit se i k evropským uživatelům.

Alphabet měl upozornit na nebezpečí zadávání důvěrných informací, společnost se při tom měla odvolat na dlouhodobou politiku ochrany informací. Zároveň varoval své inženýry, aby nevyužívali kód navržený umělou inteligencí.

Obavy z používání generativních nástrojů ve firmách vzrostly zejména poté, co se zjistilo, že dvojice zaměstnanců Samsungu předávala důvěrná data službě ChatGPT od OpenAI. Nástroje tohoto typu jednak mohou využít informace získané od uživatelů k následnému trénování a zlepšování svých kvalit, ale zároveň se k nim mohou dostat provozovatelé.

Podobné kroky jako Google, v některých případech i razantnější, podnikli dále velikáni Apple, Samsung, Amazon nebo Deutsche Bank.

Velice diskutovaným tématem se nedávno stala také první regulace směřující z Evropského parlamentu, která například provozovatele služeb typu ChatGPT nutí k tomu, aby zamezili generování jakéhokoliv ilegálního obsahu. Hovoří také o povinnosti transparentně označovat vše, co bylo nástroji tohoto druhu vytvořeno. Více detailů jsme rozebírali zde.