Z využívání AI v politickém marketingu se má stát tabu

neděle, 21. ledna 2024, 07:25 Internet & Mobil MediaGuru

V roce 2024 proběhne ve světě mnoho důležitých voleb včetně těch prezidentských v USA. Tvůrci ChatGPT i sociální sítě už představily kroky, kterými chtějí ztížit klamání občanů.

Ilustrační foto, zdroj: Unsplash

Ilustrační foto, zdroj: Unsplash

Prudký rozmach popularity takzvané umělé inteligence v podobě jazykových modelů typu ChatGPT provázejí i obavy z předvolební manipulace nevídaného rozsahu. Fingovaná zpravodajská videa s politickými kandidáty, fotorealistické obrázky generované robotem nebo zahlcení sociálních sítí uvěřitelnými texty, které nevytvořil člověk. I k této produkci lze zneužívat schopnosti modelů typu ChatGPT. Jeho tvůrci ze společnosti OpenAI se ale takovému scénáři snaží předejít.

Tento týden firma oznámila, že všechny obrázky vytvořené generátorem obrázků DALL-E chce začít opatřovat digitálním vodoznakem umožňujícím snadnou identifikaci roboticky vzniklého snímku. Některé typy uživatelských příkazů, které by mohly souviset s politikou, má navíc DALL-E coby součást ChatGPT pro jistotu zakázáno vykonat. Jde o požadavky na vytvoření obrázků znázorňujících reálně existující osoby včetně politických kandidátů s jiným než neutrálním vyzněním. Výtvor firmy OpenAI, který je zatím nejkomplexnější svého druhu, ale toho ale umí ještě mnohem více. Proto jeho autoři stanovili pravidla také pro jiné než obrázkové funkce ChatGPT.

Politici a jejich marketéři například nemohou na základech ChatGPT zprovoznit své vlastní konverzační roboty, kteří by vystupovali jako jednotliví kandidáti nebo oficiální instituce. OpenAI chce potírat i ty aplikace její technologie, které by mohly odradit voliče od hlasování nebo jim poskytnout zavádějící informace o volebním procesu.

Digitální obři už zakročili

Z hlediska dosahu nejrůznějších fake news je ale možná ještě důležitější, jak vůči hrozbě zneužití umělé inteligence přistoupí sociální sítě a digitální obři typu Mety a Googlu. Posledně jmenovaná firma na podzim agentuře Reuters sdělila, že jejím vlastním nástrojům na bázi AI nebude možné zadávat pokyny obsahující určitá „politická klíčová slova“. Krátce po Googlu zveřejnila podobné záměry i Meta, která své nástroje pro automatické generování reklamních kampaní pro jistotu zakázala používat politickým marketérům. Matka Googlu ale myslela i na další možné způsoby manipulace pomocí uměle vygenerovaných obrázků nebo videí. Její videoportál YouTube má od všech tvůrců vyžadovat speciální označování těch klipů, které obsahují realisticky vytvořené záběry pomocí nástrojů typu DALL-E nebo Midjourney.  Někteří odborníci ale věří, že takzvaná umělá inteligence nakonec zvládne mezi různými druhy obsahu stále spolehlivěji rozlišovat sama od sebe. Například předseda expertní rady Nadačního fondu nezávislé žurnalistiky Josef Šlerka v nedávném rozhovoru pro MediaGuru.cz nastínil, že AI může fungovat podobně jako spamové filtry. Jestli je ale v souvislosti s umělou inteligencí a šířením lží na místě spíš naděje, nebo skepse, by mohly dobře ukázat letošní americké prezidentské volby. Vzhledem k vyhrocenosti tamní předvolební debaty přiživené i skutečností, že o funkci se chce za republikány znovu ucházet také trestně stíhaný Donald Trump, by mohly nejdůležitější volby na planetě představovat pro OpenAI a další tvůrce umělé inteligence úplně nový druh zátěžového testu.

-riv-