La diffusione di fotocamere a basso costo ha reso immagini e video una delle modalità più diffuse di scambio di informazioni. Il web e in particolare i social network, hanno reso queste informazioni rapidamente accessibili in tutto il mondo. Lo sviluppo di strumenti di fotoritocco sempre più avanzati, rende facile la manipolazione di queste informazione da parte di malintenzionati. Di recente si sono sviluppate nuove tecniche di intelligenza artificiale capaci di riprodurre automaticamente volti umani con altissima fedeltà, innalzando quindi il rischio di attacchi all'immagine di personaggi pubblici o di diffusione di fake news. I contenuti manipolati minacciano anche molte aziende che possono ritrovarsi colpite dalla diffusione di video falsi o in tutti i processi industriali che richiedono l'uso di immagini e video. In risposta a queste minacce, gli esperti di multimedia forensics hanno introdotto numerose soluzioni di verifica dell'autenticità e della sorgente di questi contenuti. I recenti sviluppi delle tecniche di deep learning, hanno portato nuovi e incoraggianti risultati che promettono di fare nuovi progressi nell'elaborare misure di contrasto alla diffusione di questi contenuti. In questo progetto, si propone una nuova soluzione di riconoscimento di contenuti manipolati.
L'analisi dello stato dell'arte suggerisce che gli attuali modelli di riconoscimento di contenuti manipolati sono limitati rispetto alla classificazione di qualunque tipo di manipolazione. Il numero molto elevato di tecniche di manipolazione, insieme alla necessità di produrre dei dataset di training, validation e testing delle soluzioni proposte, rende difficile sviluppare detector robusti in grado di riconoscere qualunque tipo di manipolazione. Inoltre, sebbene vi sia la possibilità di controllare le tecniche di manipolazione prese in esame in fase sperimentale, i casi reali di applicazione possono essere estremamente complessi e variegati, limitando la possibilità di utilizzo di questi strumenti nella realtà.
Una direzione di ricerca molto promettente in tal senso, è quella di considerare contenuti manipolati come anomalie. In questo modo, è possibile addestrare modelli di intelligenza artificiale prendendo in esame solo esempi di immagini autentiche, e introducendo successivamente esempi di manipolazioni soltanto in fase di test e validazione. I primi passi in questa direzione sono stati introdotti solo recentemente, e il numero di lavori che abbracciano questa metodologia sono ancora molto pochi, lasciando quindi spazio ad un ampio margine di miglioramento.