K metro 0 – Strasburgo – L’importanza della protezione dei diritti umani, tra cui i diritti sociali, è quanto mai pertinente in un momento in cui sono messi in pericolo dall’utilizzo di un processo decisionale computerizzato e basato sull’intelligenza artificiale (IA) da parte delle autorità pubbliche nell’ambito dei servizi sociali. In una dichiarazione adottata il 17 marzo 2021,
K metro 0 – Strasburgo – L’importanza della protezione dei diritti umani, tra cui i diritti sociali, è quanto mai pertinente in un momento in cui sono messi in pericolo dall’utilizzo di un processo decisionale computerizzato e basato sull’intelligenza artificiale (IA) da parte delle autorità pubbliche nell’ambito dei servizi sociali.
In una dichiarazione adottata il 17 marzo 2021, il Comitato dei Ministri del Consiglio d’Europa richiama l’attenzione degli Stati membri su, inter alia:
- i possibili rischi per i diritti umani, tra cui i diritti sociali, che potrebbero derivare dall’utilizzo di un processo decisionale computerizzato o basato sull’intelligenza artificiale da parte delle autorità pubbliche nell’ambito dei servizi sociali;
- la necessità di garantire che i sistemi decisionali computerizzati o basati sull’intelligenza artificiale siano sviluppati e implementati nel rispetto dei principi della sicurezza giuridica, della legalità, della qualità dei dati, della non discriminazione e della trasparenza;
- la necessità di un controllo umano delle decisioni computerizzate o basate sull’intelligenza artificiale al fine di ridurre e/o evitare gli errori nella gestione;
- la necessità di istituire dispositivi efficaci per proteggere le persone vulnerabili da danni gravi e irreparabili.
Sebbene l’intelligenza artificiale e l’apprendimento automatico abbiano dimostrato dei vantaggi, le autorità pubbliche devono garantire che vengano applicati valori etici per tutti senza causare disparità in termini di diritti sociali e coesione sociale. Il loro utilizzo comporta anche dei rischi. È necessario adottare un approccio proattivo per assicurare che le persone interessate dalle decisioni computerizzate o basate sull’IA nell’ambito dei servizi sociali, in particolare le persone in situazione di estrema povertà o di vulnerabilità, possano effettivamente far valere i loro diritti e chiedere rimedi giuridici. A tale proposito, una spiegazione adatta al contesto e ai destinatari specifici dovrà essere fornita alle persone interessate. La spiegazione dovrebbe quantomeno includere gli elementi necessari per consentire alla persona di comprendere e contestare una decisione informata o presa da un sistema di IA, che influenza la sua situazione giuridica o la sua vita in modo sostanziale.