Moderování obsahu je pro sociální sítě nákladnou činností. Snažit se filtrovat miliony nových příspěvků denně je i pro korporace s miliardovými obraty obtížné. Ulevit lidským moderátorům by se svým novým nástrojem chtěla OpenAI. Snaží se využít schopnosti modelu GPT-4 vnímat kontext slov v příspěvku a tak jeho případné porušení pravidel zachytit lépe, než jakýkoliv dosud dostupný nástroj.

Umělá inteligence pomáhá s moderováním online obsahu už delší dobu, podle OpenAI šlo ale dosud pouze o „menší modely strojového učení specifické pro omezenou oblast“. To vede k pomalému procesu vyhodnocování a mentální zátěži lidských moderátorů, kteří denně vidí stovky znepokojujících příspěvků. Informaci o této mentální zátěži může podat rozhovor s Facebook moderátorem na YouTube kanálu portálu Vice.

„Věříme, že to nabízí pozitivnější vizi budoucnosti digitálních platforem, kde může umělá inteligence pomáhat moderovat online provoz v souladu s politikou konkrétní platformy a odlehčit psychické zátěži velkého počtu lidských moderátorů,“ stojí v blogovém příspěvku oznamujícím práci na nástroji.

Nový nástroj má být přizpůsobitelný pro pravidla všech jednotlivých platforem a být schopný se rychle přizpůsobit jejich změně. To by znamenalo výrazné zrychlení procesu zavedení nových opatření a vyšší konzistentnost v omezování příspěvků. OpenAI říká, že její nástroj pomůže firmám zvládnout šest měsíců práce za jeden den.

Novinka ale nemá lidi z procesu zcela odstřihnout. „Úsudky jazykových modelů jsou náchylné k nežádoucím zkreslením, která mohla být do modelu vnesena během trénování. Stejně jako u každé aplikace umělé inteligence bude třeba výsledky a výstupy pečlivě sledovat, ověřovat a zpřesňovat, a to tak, že v cyklu zůstanou zapojeni lidé,“ píše OpenAI také.

„Omezením lidské účasti v některých částech procesu moderace, které lze zvládnout pomocí jazykových modelů, se mohou lidské zdroje více zaměřit na řešení složitých okrajových případů, které jsou pro zdokonalení zásad nejpotřebnější.“