K metro 0 – Roma – Una provocazione, di pessimo gusto, che finirà molto probabilmente in tribunale. E’ un caso, quello dell’intervista fake a Michael Schumacher costruita con l’AI dalla rivista tedesca Die Aktuelle, che alza la polvere sotto il tappeto. Il rapporto tra intelligenza artificiale e informazione è delicato per definizione, perché chiama in causa i due pilastri che
K metro 0 – Roma – Una provocazione, di pessimo gusto, che finirà molto probabilmente in tribunale. E’ un caso, quello dell’intervista fake a Michael Schumacher costruita con l’AI dalla rivista tedesca Die Aktuelle, che alza la polvere sotto il tappeto. Il rapporto tra intelligenza artificiale e informazione è delicato per definizione, perché chiama in causa i due pilastri che finora hanno tenuto separati i contenuti giornalistici dagli altri, la responsabilità di chi scrive e della testata che pubblica e la verifica dell’attendibilità delle notizie.
Non a caso, proprio oggi, il Consiglio Generale della Fieg ha manifestato preoccupazione per “i rischi legati allo sviluppo incontrollato e non regolamentato dei sistemi di intelligenza artificiale generativa”. La preoccupazione è espressa, in particolare, “sotto il profilo del loro impatto sulla produzione e lo sfruttamento dei contenuti protetti, nonché in relazione alla possibile diffusione di informazioni false”, auspicando “la massima attenzione possibile da parte delle istituzioni nazionali e internazionali”.
Quando si parla di impatto sulla produzione si fa riferimento, evidentemente, al ruolo dei giornalisti e alla tutela del diritto d’autore. Il rischio è che l’intelligenza artificiale possa da una parte sostituire le competenze umane e, dall’altra, far perdere valore, anche economico, ai contenuti.
Poi, c’è il tema delle informazioni false. E si torna alla ‘finta’ intervista a una persona che per le sue condizioni fisiche non può parlare, come Michael Schumacher. La scelta del settimanale tedesco è criticabile da diversi punti di vista. E saranno molto probabilmente le istanze dei legali della famiglia a chiederne conto, partendo chiaramente dal danno morale che deriva da un’operazione del genere. Guardando però all’effetto provocazione e alla scelta di amplificare e quindi anche implicitamente di denunciare le potenzialità dell’intelligenza artificiale, ‘il caso’ sollevato può avere una rilevanza utile al dibattito. Con l’AI si può far parlare chi non può parlare, si può costruire una fake news per eccellenza, come un’intervista mai rilasciata.
Non serviva Die Aktuelle per averne la certezza ma parlarne può aiutare a mettere a fuoco il problema. E qui si arriva all’ultima considerazione che fa la Fieg, quella sul’attenzione necessaria. Servono regole e controlli, oltre che investimenti in tecnologia e capitale umano. Perché l’informazione verificata e certificata possa incrementare il suo valore usando l’intelligenza artificiale come uno strumento e combattendo l’intelligenza artificiale come ‘un impostore’.
Adnkronos – di Fabio Insenga