Intelligenza Artificiale, Seeweb: AI Act deve tutelare i diritti fondamentali senza impedire alle imprese di sviluppare i sistemi

FROSINONE – L’AI Act deve assicurare che lo sviluppo dell’Intelligenza Artificiale non metta a rischio i diritti fondamentali dell’uomo, ma deve anche consentire a ogni singola azienda di creare il proprio sistema privato di AI. È l’esigenza che secondo Seeweb – azienda italiana con Data Center nel Lazio e nella Lombardia e impegnata nel fornire infrastrutture per l’Intelligenza Artificiale – le istituzioni comunitarie devono riuscire a contemperare, adesso che Europarlamento, Consiglio e Commissione Europea hanno raggiunto una prima intesa sull’AI Act.
“L’Europa – spiega Antonio Baldassarra, Amministratore Delegato di Seeweb – vuole garantire che i sistemi di AI usati negli Stati membri non mettano a rischio i diritti fondamentali dei cittadini. È una preoccupazione comprensibile se si pensa ad ambiti come la sorveglianza biometrica, il recruitement, l’education, la salute. In questi casi, l’AI generativa potrebbe dare vita a delle discriminazioni, e quindi causare delle ripercussioni negative sui soggetti più deboli”.
Al momento, l’Unione europea sta seguendo un doppio binario basato sulla valutazione dei rischi. I modelli fondativi (ovvero i sistemi di addestramento degli strumenti di IA) dovranno rispettare fin da subito i parametri dell’AI Act. Gli altri modelli invece dovranno essere adeguati alla normativa solo quando vengono messi in commercio. Il regolamento dunque si esprime su sistemi – come ad esempio GPT – che sicuramente promettono di agevolare la capacità di innovazione e sviluppo nelle aziende, ma che presentano anche rischi per la data privacy.
Anche per questo, l’AI Act deve evitare che si creino pochi modelli di AI dominanti. “Comporterebbero molti più rischi rispetto a una pluralità di soluzioni – prosegue Baldassarra. – Di conseguenza, l’Ue non deve limitarsi a normare l’utilizzo dell’IA generativa, ma deve anche investire su propri sistemi per portare innovazione, e soprattutto per garantire sicurezza e protezione. Insomma, non deve solamente ‘frenare’ gli eventuali abusi (peraltro quando questi strumenti sono già alla portata di tutti), ma deve sfruttare il know-how delle imprese e del mondo della ricerca e utilizzare tecnologie abilitanti erogate da Data Center comunitari. L’Europa in altre parole deve diventare protagonista del cambiamento”.
In questa fase, quindi, è fondamentale favorire la creazione di sistemi di ‘private AI’. “Aziende e centri di ricerca – prosegue l’AD di Seeweb – possono costruire sistemi di AI basandosi sui propri dati e sulle proprie conoscenze aziendali, senza condividerli con altri soggetti. È un processo già in corso in contesti (come quello farmaceutico, finanziario o in alcuni ambiti tecnologici) particolarmente gelosi dei propri dati. In questo modo le aziende possono portare avanti il proprio business o la propria attività di ricerca, senza comprometterne la riservatezza. Non è un caso se la più grande istallazione cloud in Italia per l’AI viene utilizzata in ambito farmaceutico, ed è fondamentale per la ricerca dei farmaci innovativi” conclude Baldassarra.

Print Friendly, PDF & Email
Condividi con:
LEGGI TUTTE LE NOTIZIE