Table of Contents
A jövő év politikai szempontból maga lesz a Pokol, választásokat tartanak Oroszországban, Indiában, az Európai Unióban és az Egyesült Államokban, ezen kívül kétféle választás lesz Magyarországon, négyféle Romániában, szóval valósággal át fogja itatni a propaganda a mindennapokat, és el sem lehet majd előle menekülni külföldre – ott is lesz, ott is főszerepet játszik majd, legalábbis nagyon sok ország lesz érintett.
Ebben a helyzetben nem tűnik váratlannak a Meta szerdai lépése*, melyben szabályozza a mesterséges intelligencia felhasználását az általa felügyelt közösségi oldalakon, de ha közelebbről is megnézzük, láthatjuk, hogy nem a felhasználókat védi ezzel az intézkedéssel a világcég – hanem saját magát. Miről is van szó?
Arról, hogy a Meta a politikai hirdetők számára előírja az MI használatának bejelentését, mivel a politikai hirdetésekkel régóta vitatott kapcsolatban álló közösségi hálózati óriás a generatív MI-eszközök használatának hullámával számol.
A Meta éveken át találgatta, hogyan kezelje a politikai hirdetéseket a Facebookon és az Instagramon. Rendszereket állított fel, és irányelveket dolgozott ki arra vonatkozóan, hogy milyen típusú politikai hirdetéseket engedélyez és milyeneket nem a platformjain. Ez azonban még a fogyasztói mesterséges intelligencia megjelenése előtt történt.
Szerdán a Meta új irányelvet vezetett be, hogy megbirkózzon az MI politikai hirdetésekre gyakorolt hatásaival. A Szilícium-völgyben működő vállalat közölte, hogy a jövő évtől kezdve világszerte megköveteli a politikai hirdetőktől, hogy nyilvánosságra hozzák, ha harmadik féltől származó mesterséges intelligencia-szoftvereket használtak politikai vagy társadalmi témájú hirdetésekben emberek és események szintetikus ábrázolására.
A Meta hozzátette, hogy megtiltja a hirdetőknek, hogy saját MI-alapú szoftverét használják politikai vagy társadalmi témájú hirdetések, valamint a lakhatással, foglalkoztatással, hitelekkel, egészségüggyel, gyógyszerekkel vagy pénzügyi szolgáltatásokkal kapcsolatos hirdetések létrehozásához. Ezek a hirdetők harmadik féltől származó mesterséges intelligencia-eszközöket, például a DALL-E és a Midjourney képgenerátorokat használhatnák, de csak akkor, ha ezt nyilvánosságra hozzák. Mint hivatalosan közölték:
„Úgy véljük, hogy ez a megközelítés lehetővé teszi számunkra, hogy jobban megértsük a lehetséges kockázatokat, és megfelelő biztosítékokat építsünk ki a generatív MI-nek a szabályozott iparágak potenciálisan érzékeny témáihoz kapcsolódó hirdetésekben történő felhasználására.”
A Meta számol az MI-eszközök bevetésének hullámával, amelyet a nyilvánosság az elmúlt évben magáévá tett. Mivel a fogyasztók a ChatGPT, a Google Bard, a Midjourney és más „generatív MI-termékek” iránt érdeklődtek, a Meta-hoz hasonló nagy technológiai vállalatoknak újra kellett gondolniuk, hogyan kezeljék a manipulált vagy egyenesen hamis képek, videók és hangok új korszakát.
A politikai reklámok már régóta vitatott kérdést jelentenek a Meta számára. 2016-ban a Facebookot a felügyelet hiánya miatt bírálták, miután bizonyos orosz körök a közösségi hálózat hirdetései segítségével elégedetlenséget szítottak az amerikai választók körében. Azóta Mark Zuckerberg, a Meta alapítója és vezérigazgatója dollármilliárdokat költött a cég platformjain megjelenő dezinformáció és félretájékoztatás visszaszorítására, és független vállalkozókat bérelt fel a rendszeren áthaladó politikai hirdetések szoros ellenőrzésére. (Mely vállalkozása nagyjából teljes kudarcot vallott).
A vállalat nem zárkózott el attól sem, hogy a politikusok hazudjanak a platformon megjelenő hirdetésekben, amit Mark Zuckerberg a szólásszabadságra és a nyilvánosságra való hivatkozással védett meg. A Meta vonakodott attól is, hogy korlátozza a választott tisztségviselők megszólalásait. Nick Clegg, a Meta globális ügyekért felelős elnöke szabályozási iránymutatást kért az ilyen kérdésekben ahelyett, hogy a technológiai vállalatok határozzák meg a szabályokat.
Aki politikai hirdetéseket futtat a Metán, annak jelenleg egy engedélyezési eljárást kell lefolytatnia, és a hirdetéseken fel kell tüntetnie a „paid for by” feliratot, amelyet a vállalat nyilvános hirdetési könyvtárában hét évig tárolnak, hogy az újságírók és a tudósok tanulmányozhassák azokat.
Amikor a Meta új MI-irányelve jövőre hatályba lép, a politikai kampányok és a marketingesek kötelesek lesznek nyilvánosságra hozni, hogy használtak-e MI-eszközöket a hirdetések módosításához. Ha igen, és a hirdetést elfogadják, a vállalat azzal az információval fogja futtatni, hogy az MI-eszközök segítségével készült. A Meta közölte, hogy nem követeli meg a hirdetőktől az olyan módosítások közzétételét, amelyek " jelentéktelenek vagy lényegtelenek a felvetett állítás, vagy kérdés szempontjából", mint például a fotó retusálása és a képkivágás.
A vállalat szerint elutasítják azokat a politikai és társadalmi témájú hirdetéseket, amelyek nyilvánvalóan mesterséges intelligenciát használtak a képek, videók és hangok megváltoztatására, de nem tették közzé, hogy így cselekedtek.
Azokat a szervezeteket, amelyek ismételten megpróbálnak ilyen hirdetéseket beküldeni a tájékoztatás nélkül, büntetni fogják – tette hozzá a vállalat anélkül, hogy pontosította volna, milyen büntetéseket szabhatnak ki. A vállalat már régóta megbízza külső tényellenőrző partnereit, hogy vizsgálják felül, értékeljék és potenciálisan távolítsák el azokat a hirdetéseket, amelyek célja a félretájékoztatás terjesztése.
Azzal, hogy a Meta megtiltja a hirdetőknek, hogy a vállalat saját, mesterséges intelligenciával támogatott szoftverét politikai vagy társadalmi témájú hirdetések létrehozására használják, talán megelőzheti a hirdetési technológiájával kapcsolatos gondokat vagy peres ügyeket.
Ilyen volt az például, amikor 2019-ben az Igazságügyi Minisztérium beperelte a vállalatot, mert lehetővé tette a hirdetők számára, hogy a Facebook-felhasználókat faji, nemi, vallási és egyéb jellemzőik alapján diszkriminálják. A vállalat végül peren kívüli megállapodással rendezte az eljárást, és beleegyezett, hogy módosítja hirdetési technológiáját, valamint 115 054 dollár büntetést fizet.
Mint láthatjuk, a Metát nem a közélet vagy a választások tisztasága érdekli, hanem sokkal inkább tanult a Cambridge Analytica-botrányból és annak utódaiból – tehát inkább a pénzét és a státusát félti.
Tény, hogy problémahárításból és -tagadásból már eddig is minden alkalommal jelesre vizsgáztak, így most sem tagadták meg magukat.
Ne legyenek illúzióink: nem a felhasználók érdekében hozták ezt a döntést.
*Meta to Require Political Advertisers to Disclose Use of A.I.