Come riconoscere un’immagine generata dall’Ia

Attualmente esistono numerosi generatori di immagini, i più famosi sono DALL-E 2, Midjourney e Stable Diffusion. Oggi, grazie ad alcuni sistemi validi o accorgimenti è possibile identificare i contenuti digitali che alterano la realtà. Eccone alcuni

L’utilizzo dell’intelligenza artificiale in determinati contesti rende sempre più difficile riconoscere l’autenticità di un contenuto e la sua origine. Per questo motivo si sta tentando di sviluppare strumenti adeguati che possano essere da tutti utilizzati per riconoscere gli elementi creati grazie all’IA. Se parliamo di immagini la cui origine è incerta, la prima cosa che ognuno di noi può fare è prestare molta attenzione ai dettagli (soprattutto occhi e mani), che potrebbero suggerire di non essere reali, anche se gli ultimi aggiornamenti stanno rendendo sempre più difficile distinguere il falso dal reale. Esistono anche altri modi per riconoscere i contenuti generati da un algoritmo. Uno tra tutti è Instagram, che entro il prossimo anno potrebbe offrire un valido aiuto, applicando una serie di etichette alle immagini generate dall’IA pubblicati sulla piattaforma, su Facebook e Threads. 

Riconoscere un’immagine generata dall’Ia senza strumenti

È possibile riuscire a distinguere un contenuto creato con l’utilizzo dell’intelligenza artificiale da uno autentico osservando alcuni particolari dell’immagine stessa. Esistono alcune caratteristiche chiave che possono aiutare a individuare le immagini generate dall’Ia, eccone alcune:

  • dettagli surreali o fisicamente impossibili, come oggetti disposti in modo non realistico o fluttuanti nel vuoto o elementi che non si verificherebbero realmente,
  • pattern insoliti o irregolarità nell’immagine, come sfocature o bordi poco definiti,
  • firme digitali oche indicano il processo di generazione automatica, queste possono essere identificate tramite l’analisi digitale dell’immagine,
  • anomalie nei colori o nella prospettiva.

    Intelligenza artificiale
    Intelligenza artificiale | unsplash @Igor Omilaev – Sitiwebok.it

L’obiettivo di Meta contro le immagini generate dall’Ia

Meta ha annunciato che sta lavorando a un nuovo strumento in grado di individuare le immagini create grazie all’utilizzo dell’intelligenza artificiale e l’obiettivo è lanciare la novità entro il prossimo anno. L’Ia al servizio delle fake news diventerà sempre più pericolosa, man mano che le tecnologie evolveranno ed è quindi necessario che gli utenti riescano a riconoscere i contenuti creati con l’intelligenza artificiale“, ha dichiarato Nick Clegg, presidente degli affari globali di Meta Nick Clegg che ha la piena responsabilità per le decisioni politiche che riguarderanno la società. Grazie al nuovo strumento, i contenuti generati dall’Ia e pubblicati nelle piattaforme di Instagram, Facebook e Threads, saranno sempre etichettati come tali. In questo modo sarà più facile definire l’origine del contenuto e denunciare “persone e organizzazioni che vogliono attivamente ingannare le persone“, ha spiegato Clegg. “Mentre la differenza tra contenuto umano e sintetico diventa sempre più sfumata, le persone vogliono sapere dove si trova il confine”, ha aggiunto.

A marzo erano state pubblicate le foto fake che mostravano Trump in manette e dentro una cella, mentre a fine gennaio è stata clonata la voce di Joe Biden. Nonostante questi contenuti fake (come quelli creati con Midjourney, Dall-E o Stable Diffusion) contengano a volte alcuni dettagli che ne fanno comprendere la non autenticità, rimane difficile per alcuni utenti captarli. “I nostri utenti ci hanno detto che apprezzano la trasparenza su questa nuova tecnologia. Quindi è importante aiutare le persone a sapere quando i contenuti fotorealistici che stanno vedendo sono stati creati utilizzando l’intelligenza artificiale”, “l‘obiettivo è renderle disponibili entro il prossimo anno, quando si svolgeranno elezioni importanti in tutto il mondo“, ha spiegato il presidente degli affari globali di Meta.

Gli ultimi sviluppi dell’Ia preoccupano

Il segretario di Stato David Scanlan ha affermato che gli ultimi sviluppi dell’intelligenza artificiale “rafforzano la preoccupazione nazionale sull’effetto dell’IA sulle campagne”. Clegg ha spiegato che le etichette saranno create e applicate soprattutto per evitare “un rischio particolarmente elevato di ingannare materialmente il pubblico su una questione importante”. “Questo lavoro è particolarmente importante, è probabile che diventi uno spazio sempre più conflittuale negli anni a venire”, ha aggiunto Clegg. “Le persone e le organizzazioni che vogliono attivamente ingannare le persone con contenuti generati dall’intelligenza artificiale cercheranno modi per aggirare le misure di sicurezza messe in atto per rilevarli. Nel nostro settore e nella società più in generale, dovremo continuare a cercare modi per rimanere un passo avanti”. L’intelligenza artificiale alimenta la disinformazione e per questo è utile frenare la diffusione di contenuti fake (immagini, video e audio), grazie a nuove tecnologie capaci di identificare quelli generati con l’utilizzo di algoritmi. Start-up, università e piattaforme stanno sviluppano nuovi sistemi di sicurezza.

Intelligenza artificiale
Intelligenza artificiale | unsplash @BenSweet – Sitiwebok.it

Gli strumenti per riconoscere una immagine generata dall’Ia

Attualmente esistono numerosi generatori di immagini, i più famosi sono DALL-E 2, Midjourney e Stable Diffusion. Oggi, grazie ad alcuni sistemi validi o accorgimenti è possibile identificare i contenuti digitali che alterano la realtà. Eccone alcuni:

  • La ricerca inversa di immagini di Google, cliccando su “Cerca immagine con Google” si possono trovare foto visivamente simili ed è possibile verificare se esistono commenti sulla creazione dell’immagine.
  • Reality Defender offre servizi di rilevamento Ia a pagamento basati su ricerche approfondite che utilizzano il watermarking avanzato.
  • Stable Attribution è uno strumento che può identificare l’origine delle immagini cercando gli elementi grafici che hanno istruito l’Ia. Stable Attribution è stato creato da Jeff Huber e Anton Troynikov. Il sistema identifica le caratteristiche più rilevanti utilizzate dal modello e fornisce spiegazioni o interpretazioni del risultato. Stable Attribution è uno strumento utile per capire l’attendibilità dei modelli di intelligenza artificiale.
  • Credits Artie Medvedev/Shutterstock. Sulle piattaforme di social media spesso vengono inserite etichette come: “Questa immagine è stata generata inserendo le mie foto nell’IA” o “Questa immagine non è reale, è stata realizzata con Midjourney“.
  • Hashtag come #aiaart, #midjourney e #mjv5 indicano che il contenuto è stato generato dall’Ia.
  • Account dedicati, come “originalaiartgallery” su Instagram raccolgono immagini molto realistiche generate con l’aiuto dell’intelligenza artificiale e spesso forniscono anche dettagli sul software utilizzato.
  • Fake Profile Detector (Deepfake, GAN) è uno strumento che rileva la presenza di contenuti fake su diverse piattaforme online, in particolare quelli generati attraverso l’uso di deepfake e GAN (Generative Adversarial Network). Il sistema utilizza algoritmi avanzati di analisi delle immagini per esaminare i dettagli visivi dei contenuti.
Impostazioni privacy