Ahogy a mesterséges intelligencia (AI) által készített képek egyre fejlettebbé válnak, a vállalatok versenyt futnak, hogy megtalálják a félretájékoztatás elleni küzdelem módjait. A Google bejelentette, hogy vízjelet tesztel annak felismerésére, hogy egy képet mesterséges intelligenciával készítettek-e. Ebben pedig az újonnan fejlesztett DeepMind SynthID lesz segítségére.
Egy GIF különböző fotókat mutat, a felező kijelző vízjeles és vízjel nélküli képeket ábrázol.
A digitális vízjelet a cég technológiai monolit AI-ágazata, a DeepMind hozta létre. Az új eszköz, a DeepMind SynthID egyelőre bétaverzióban van, és a DeepMind közleménye szerint azon korlátozott számú Vertex AI-ügyfél számára teszik elérhetővé, akik az Imagen-t használják. Az Imagen a Google szöveg-kép diffúziós modellje, hasonló a Midjourney-höz és a Dall-E-hez.
"Ez a technológia digitális vízjelet ágyaz be közvetlenül a kép pixeleibe, így az emberi szem számára észrevehetetlenné, de azonosításra felismerhetővé válik" - magyarázza a közlemény.
A SynthID három bizalmi szintet biztosít: "Digitális vízjel észlelve", "Digitális vízjel nem észlelve" és "Digitális vízjel valószínűleg észlelve". Az utóbbit a DeepMind a következőképpen írja le: "Lehet, hogy generálható. Kezeljük óvatosan". Az első két lehetőség egyszerűen azt jelenti, hogy a művet valószínűleg vagy kevéssé valószínű hogy az Imagen hozta létre. Jól látható, hogy egyik opció sem jelent teljes bizonyosságot.
A DeepMind is hangsúlyozza, hogy a SynthID nem tökéletes, különösen az "extrém képmanipulációk" tekintetében. A Google azonban nem magyarázza meg, hogy mi számít extrémnek, illetve mi az, ami miatt a SynthID számára nagyobb kihívást jelenthet a képelemzés.
Az AI által generált, mások által készített munkák azonosításán túl a vízjel lehetővé teszi az Imagen felhasználók számára, hogy kommunikálják, hogy az ő képeik is AI által készítettek. Ez még akkor is lehetséges, ha ezeket a képeket később mások szerkesztik vagy megosztják.
A közlemény ezt egy olyan fotóval illusztrálja, amely többszörösen átesett szerkesztésen, de a jelentések szerint még mindig felismerhető SynthID vízjelet tartalmaz. A Google hozzáteszi, hogy mivel a SynthID vízjel észrevehetetlen, így nem kell aggódni amiatt, hogy rontja az esztétikát, és nehezebb is szerkesztés által eltüntetni.
Nem világos azonban, hogy a SynthID használható-e a nem Imagen programmal készült, mesterséges intelligenciával létrehozott képeken. Az is kérdéses, hogy a felhasználók csatolhatnak-e SynthID vízjelet a más modellel létrehozott, mesterséges intelligenciával létrehozott tartalomhoz. Ez valószínűtlennek tűnik a közlemény alapján, amely szerint "a SynthID kiterjeszthető más AI-modellekre is". A PetaPixel felkereste a Google-t pontosításért, és a Google elmagyarázta, hogy a SynthID nem érhető el más AI-modellek számára, de remélik, hogy a jövőben ez változhat.
"Miközben a generatív AI hatalmas kreatív potenciált szabadíthat fel, új kockázatokat is rejt magában, például azt, hogy az alkotók hamis információkat terjeszthetnek - szándékosan vagy akaratlanul" - olvasható a DeepMind közleményében. "Az AI által generált tartalmak azonosításának képessége kritikus fontosságú ahhoz, hogy az emberek tudással rendelkezzenek arról, hogy mikor lépnek interakcióba a generált médiával, és hogy segítsenek megelőzni a félretájékoztatás terjedését."
Az AI által generált képek miatti félretájékoztatás mostanában egyre gyakoribb. Éppen a múlt héten egy mesterséges intelligenciával készített, Donald Trump volt elnökről készült arckép járta be a világhálót, mielőtt a valódi képet közzétették volna. A képgenerátoroknak általában vannak szabályaik a megfelelő tartalomra vonatkozóan, "rasszista és konspiratív" tartalmú hamis képek még ennek ellenére is könnyen készíthetőek.
Akár 45% kedvezménnyel válogathatsz a legnépszerűbb Wacom eszközök közül a Black Friday ideje alatt!
Érdemes kihasználni a Black Friday adta lehetőséget, szerezd meg most 20% kedvezménnyel legújabb CorelDRAW licencedet!
Elérhetőek a TeamViewer 2024-es Black Friday kedvezményei! Szerezd be akár 30%-kal kedvezőbben - mi pedig mutatjuk hozzá a részleteket!