Consapevolezza, Cybersecurity, In evidenza, Intelligenza Artificiale, Metaverso, Pubblicazioni

DSF 2024 – Articolo sul Magazine FvgTech: Il lato oscuro dell’IA

Se hai trovato utile questo articolo, condividilo sui tuoi profili social!Come di consueto, una delle iniziative del Digital Security Festival è il DSFMAG, il magazine cartaceo dell’evento che raccoglie gli articoli, i contributi e gli […]
Se hai trovato utile questo articolo, condividilo sui tuoi profili social!

Come di consueto, una delle iniziative del Digital Security Festival è il DSFMAG, il magazine cartaceo dell’evento che raccoglie gli articoli, i contributi e gli approfondimenti dei vari protagonisti della kermesse di cultura digitale, realizzato con la sapiente abilità grafica di Gabriele Geza Gobbo, ideatore e anchor man della piattaforma di divulgazione della cultura digitale FvgTech. Il magazine viene consegnato gratuitamente a tutti i partecipanti del Digital Security Festival 2024, un evento che non è solo un’occasione di apprendimento, ma una vera e propria immersione nel mondo della sicurezza digitale, pensato per coinvolgere e sensibilizzare tutti, dai giovani agli adulti, dalle imprese alle istituzioni, coinvolgendo anche scuole e università. Di seguito, il mio contributo al magazine del festival, il cui tema centrale è “Umanocentrico per natura“.


Il lato oscuro dell’IA

di Ettore Guarnaccia per DSFMag

Internet, Web, social e smartphone hanno trasformato la società. Oggi siamo entrati nell’era dell’intelligenza artificiale, con il metaverso all’orizzonte. Molti manager sono entusiasti dell’IA per la sua efficienza, ma con oltre il 90% dei dipendenti che già ne fa uso, non stiamo forse sottovalutando i rischi per la sicurezza?

L’IA non è infallibile: è fatta di hardware, software, dati e logiche matematiche, vulnerabili a manipolazioni e attacchi. Ragiona per probabilità, la sua accuratezza dipende dall’addestramento ricevuto, e può produrre errori o allucinazioni. Inoltre, le sue logiche possono riflettere pregiudizi e resta aperto il tema della responsabilità morale e legale per i suoi errori. Molti ne parlano, ma pochi la conoscono veramente.

Quante aziende hanno adottato policy di uso sicuro dell’IA? Quanti dati e documenti aziendali sono stati esposti a terze parti tramite l’uso di app IA? Quanti dipendenti hanno ingenuamente permesso a queste app di monitorare riunioni e chat? Quanti team di sicurezza sono pronti a fronteggiare attacchi molto più sofisticati grazie all’IA? E quanti CEO hanno considerato l’impatto sociale dell’IA sui dipendenti?

Consideriamo le situazioni in cui le decisioni dell’IA possono mettere a rischio vite umane, come nei trasporti autonomi, sistemi medici o armamenti. In circostanze impreviste, l’IA agirebbe solo secondo la sua programmazione, senza coscienza, emozioni, sentimenti, intuito, creatività, etica o questioni morali. Non crediamo all’illusione di un’IA superiore in tutto all’essere umano, piuttosto prepariamoci a gestire questa nuova ondata tecnologica e uscirne indenni.


Se hai trovato utile questo articolo, condividilo sui tuoi profili social!


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.