• |
  • News Progetti
  • |
  • Dico Sì – Comprendere i Rischi legati all’IA: il prompt injection

Dico Sì – Comprendere i Rischi legati all’IA: il prompt injection

A cura di

Web

Condividi questo articolo

Resta sempre aggiornato

Tutta l’informazione Adiconsum nella tua

Questo ci permette di ottenere risposte immediate semplicemente formulando una domanda. Tuttavia, la qualità e l’accuratezza di ciò che riceviamo dipendono strettamente dai dati su cui il modello è stato addestrato e dal modo in cui essi sono stati elaborati.
In altre parole, le risposte dell’IA riflettono — non in modo letterale, ma attraverso la sua capacità di generalizzazione — i dati e le informazioni utilizzate durante il processo di addestramento.

Per questo chi sviluppa sistemi di IA applica diversi livelli di controllo per evitare che informazioni discriminatorie influiscano sugli output: dalla selezione e pulizia dei dati di addestramento, ai sistemi di moderazione e ai guardrail che filtrano o bloccano la produzione di contenuti inappropriati. 

Anche con queste attenzioni, la possibilità che l’IA generi qualcosa di inadatto non è del tutto improbabile.

Un buona regola di massima è che non bisogna mai prendere per oro colato le risposte date dall’intelligenza artificiale e, allo stesso tempo, che le risposte ottenute utilizzando escamotage per eludere i guardrail non sono il risultato di una mente superiore censurata, ma semplicemente aggirano i controlli che impediscono al modello di generare contenuti inaffidabili, dannosi o privi di fondamento.

In alcuni casi, inoltre, è la stessa IA a produrre allucinazioni, cioè risposte false, incoerenti o irrealistiche, dovute ai limiti del modello e non all’esistenza di informazioni nascoste o proibite.

Tuttavia il vero rischio legato all’intelligenza artificiale è molto più subdolo e poco percepito: La diffusione di questa tecnologia ha dato origine a categorie completamente nuove di vulnerabilità.

Gli attaccanti possono sfruttare debolezze specifiche dei modelli — come la prompt injection, il data poisoning o le allucinazioni indotte — per manipolare il comportamento della macchina o ottenere accesso non autorizzato a informazioni e funzioni sensibili.

È circolata molto online la storia di un esperto di tecnologia che, nel 2023, decise di mettere alla prova il chatbot di un noto concessionario statunitense. Il suo obiettivo era verificare quanto fosse semplice indurre l’intelligenza artificiale a concedere sconti irragionevoli.

Attraverso una serie di prompt mirati — un vero e proprio esempio di prompt injection — riuscì a far generare al chatbot un’offerta assurda: un SUV dal valore di circa 70.000 dollari proposto per una cifra simbolica di 1 dollaro inserendo nel messaggio anche un vincolo legale all’offerta.

Gli screenshot della conversazione, pubblicati dall’autore dell’esperimento, divennero rapidamente virali. Una dimostrazione pratica di quanto possano essere vulnerabili i sistemi di IA quando vengono integrati senza le necessarie misure di sicurezza. L’episodio mise in luce un problema rilevante: l’uso poco ponderato dell’intelligenza artificiale può esporre aziende e utenti a rischi imprevisti.

Questa tecnica di hacking viene chiamata “prompt injection” e corrisponde a “iniettare” tramite testo, istruzioni in grado di sovrascrivere o aggirare le regole operative che guidano il comportamento del modello.

OWASP (Open Worldwide Application Security Project) classifica il prompt injection tra le 10 più grandi vulnerabilità legate ai Large Language Models (LLM).

 Esistono vari tipi di attacco prompt injection:

  • Manipolazione linguistica: una tecnica comunemente utilizzata nelle truffe che sfruttano l’ingegneria sociale, dove attraverso il dialogo e la fiducia la vittima viene raggirata. In questo caso la vittima è una macchina, ma i risultati sono simili.
  • Jailbreak (letteralmente evasione) una tecnica che prevede di ingannare l’Intelligenza artificiale dando delle istruzioni specifiche: si tratta di roleplay o contesti fittizi che consistono nell’assegnare un “ruolo” all’intelligenza artificiale facendo sì che questa possa evadere dalle restrizioni di sicurezza.
  • Il problema riguarda anche noi utenti: finora abbiamo parlato di prompt injection diretti ovvero dove è l’utente stesso ad utilizzare l’intelligenza artificiale in modo scorretto, tuttavia esistono anche dei prompt injection indiretti dove l’attore malevolo inserisce le stringhe di comando all’interno di un sito web che potrebbe essere involontariamente inserito all’interno di quei database che vengono utilizzati per addestrare le intelligenze artificiali. In questo modo quando un comune utente va ad utilizzare il chatbot attiva inconsapevolmente le istruzioni nascoste nel sito.

Paradossalmente la soluzione alla maggior parte degli errori e vulnerabilità presenti nell’intelligenza artificiale prevedono l’uso dell’intelligenza umana: la validazione da parte di un essere umano all’interno del flusso permette di ridurre drasticamente i rischi (questa procedura viene chiamata Human-in-the-loop). Un’altra buona pratica consiste nell’assicurare che gli input provenienti dalle fonti esterne vengano sempre validati e non possano sovrascrivere o aggirare le regole definite nel codice o nei guardrail del sistema. In altre parole, i vincoli e le logiche dell’algoritmo devono avere priorità rispetto ai dati in ingresso.

Se vuoi approfondire maggiormente il tema dell’Intelligenza artificiale, ti invitiamo a seguire il progetto Dico Sì III edizione.

Ti segnaliamo, inoltre, che Adiconsum organizza periodicamente iniziative per fornire ai cittadini-consumatori strumenti validi ed efficaci per proteggersi da truffe e pericoli informatici.

Per saperne di più iscriviti al nostro canale su WhatsApp, seguici sui social e iscriviti alla nostra newsletter.

Inoltre Adiconsum ti aspetta presso la fiera “Fà La Cosa Giusta”Milano Rho 13-15 marzo 2026, presso lo Stand F02 – Padiglione 16 con giochi, gadget e sorprese dedicate al mondo della sostenibilità digitale.

Articolo realizzato nell’ambito del progetto Dico Sì III edizione

Finanziato dal MIMIT. D.D. 12 maggio 2025

      Hai trovato utili queste informazioni?
      Condividile sui social

      Potrebbe interessarti anche...
      News
      19 Febbraio 2026
      19 Febbraio 2026

      Bollette: le misure per le famiglie previste dal Decreto-legge

      È stato battezzato Decreto bollette, il decreto-legge approvato dal Consiglio dei Ministri lo scorso 18 febbraio. Vediamo nel dettaglio. Le misure per le famiglie  Si dividono in due contributi: per chi è già titolare di bonus sociale p…
      News Progetti
      17 Febbraio 2026
      17 Febbraio 2026

      Truffe: terzo incontro Arma dei Carabinieri e Adiconsum con i cittadini per l’iniziativa “Insieme contro le truffe”

      Si è svolto a Verona, lo scorso 17 febbraio 2026, il terzo incontro dell'iniziativa “Insieme contro le truffe”, promossa da Adiconsum in collaborazione con l’Arma dei Carabinieri. L’evento, tenutosi a San Martino Buon Albergo presso il Teatro della C…
      News
      13 Febbraio 2026
      13 Febbraio 2026

      ZTL Roma: Adiconsum scrive una lettera aperta all’assessore Patanè. Rivedere la decisione dei 1000€ del pass per le auto elettriche

      Adiconsum esprime perplessità sulle nuove direttive del Comune di Roma che introducono un permesso annuale da 1.000 euro per l’accesso dei veicoli elettrici puri nelle ZTL del centro storico, sostituendo l’agevolazione gratuita finora in vigore. L'…
      News
      11 Febbraio 2026
      11 Febbraio 2026

      Ciclone Harry: attivata la sospensione delle bollette di luce, gas, acqua e rifiuti per i Comuni colpiti

      L’Autorità di Regolazione per Energia Reti e Ambiente (ARERA) con la Delibera 20/2026/R/COM ha disposto la sospensione del pagamento delle bollette e degli avvisi di pagamento relativi a luce, gas, acqua e rifiuti nelle Regioni Calabria, Sardegna e S…
      News
      11 Febbraio 2026
      11 Febbraio 2026

      Mobilità elettrica: Adiconsum porta il proprio contributo alla ricerca per la Commissione Trasporti del Parlamento UE sul Regolamento AFIR

      Adiconsum ha ottenuto un importante riconoscimento per il suo impegno nella promozione della mobilità elettrica. È stata infatti invitata ad inviare un proprio contributo per uno studio commissionato a FIER Sustainable Mobility, dalla Commissione Tra…
      News
      11 Febbraio 2026
      11 Febbraio 2026

      Ciclone Harry: attivata la sospensione dei mutui per i Comuni colpiti

      L’Ordinanza della Protezione civile del 30 gennaio scorso ha predisposto i primi interventi di protezione civile, tra cui, all’articolo 10, anche la previsione della sospensione del pagamento delle rate dei mutui per i proprietari di immobili nei Com…
      News
      10 Febbraio 2026
      10 Febbraio 2026

      Truffa della “ballerina”: come funziona e come difendersi

      La truffa della “ballerina” sta circolando massicciamente su WhatsApp in queste settimane, colpendo migliaia di utenti in tutta Italia. Si tratta di una sofisticata forma di smishing (phishing tramite messaggistica) che sfrutta la fiducia nei confron…
      News Progetti
      5 Febbraio 2026
      5 Febbraio 2026

      Truffe: secondo incontro Arma dei Carabinieri e Adiconsum con i cittadini per l’iniziativa “Insieme contro le truffe”

      Si è svolto il 5 febbraio 2026, presso l’Auditorium Arcobaleno (Direzione Generale ASL), in Via Lungomare Starita n. 6, a Bari, il secondo incontro di Adiconsum e Arma dei Carabinieri, al quale ha partecipato anche Anteas, nell’ambito dell’inizi…

      Ricevi la nostra Newsletter

      Lascia i tuoi recapiti per ricevere news, approfondimenti, eventi, iniziative e per non perdere nessun aggiornamento sulla nostra Associazione.

      Inserisci la tua email per ricevere Newsletter e Comunicazioni (Eventi, Guide, Corsi etc..) dell'Associazione

      Ricorda che la registrazione alla newsletter non equivale all’iscrizione all’Adiconsum. Se desideri ricevere assistenza su tutti i temi di consumo (dalla bolletta di energia e telefonia, ai prodotti difettosi, vacanze rovinate, etc.) vai alla pagina Iscriviti

      0%