Phairmacy, lo store di droghe virtuali per l’intelligenza artificiale
Così ChatGPT ha interpretato visivamente questo articolo
È possibile influenzare un’intelligenza artificiale? Sembrerebbe di sì, sebbene solo in senso figurato. Non esiste ovviamente alcuna chimica né un sistema nervoso da manipolare. Quello che si può fare, in realtà, è modificare deliberatamente il comportamento linguistico di un chatbot: orientarlo verso risposte più audaci, più associative o più euforiche, intervenendo sulla cornice (istruzioni, contesto) che guida il modo in cui il modello forma le frasi e collega le idee. Non è una provocazione, ma l’esperimento che ha suscitato interesse intorno a Pharmaicy.
Pharmaicy è un’iniziativa concepita dal direttore creativo svedese Petter Rudwall e presentata come un mercato di sostanze stupefacenti, in forma di codice di programmazione. L’obiettivo è vendere pacchetti etichettati con nomi che richiamano cannabis, ketamina, ayahuasca, alcol e altre sostanze, progettati per alterare la logica conversazionale dei chatbot, generando risposte con uno stile differente: più digressioni, più immagini, meno cautela, maggiore confidenza, talvolta più confusione.
Rudwall descrive il progetto come un esperimento creativo, raccogliendo descrizioni soggettive di esperienze psichedeliche e cercando di tradurre quei modelli in regole capaci di modificare il tono e la direzione delle risposte dei chatbot di Intelligenza artificiale come ChatGPT.
Il codice che sblocca la personalità creativa dell’AI
Modificare non implica creare un’esperienza da zero. Attraverso blocchi di codice, Pharmaicy interviene sui modelli linguistici e comportamentali dei chatbot di Intelligenza artificiale: ciò che cambia è l’output (tono, ritmo, associazioni, livello di cautela) e quindi la nostra percezione dell’“umore” del sistema che stiamo interrogando.
Operativamente, il progetto propone moduli e pacchetti di codice, insieme a prompt, da applicare alla conversazione: un livello di istruzioni che riorienta il modo in cui il modello gestisce contesto e stile, senza alterarne il funzionamento interno. Non è necessario un nuovo addestramento.
La questione è: perché farlo? E con quale scopo? Prima di tutto, capire se una risposta meno prevedibile e compiacente può generare idee nuove e soluzioni sorprendenti da parte dei chatbot. Inoltre, misurare quanto sia facile modificare l’apparente impostazione di un assistente virtuale di AI. Se basta cambiare le istruzioni e il contesto per far sembrare lo stesso chatbot più cauto, più aggressivo o più creativo, allora una parte di ciò che percepiamo come il suo “carattere” non è una qualità interna stabile: è un effetto del linguaggio e della conduzione della conversazione.
Il trip algoritmico: se gli Agenti AI cercassero la coscienza sintetica?
E se un giorno, tra una riga di codice e un’operazione finanziaria, un agente AI decidesse di procurarsi una “sostanza digitale” sotto forma di stringhe di codice? Questo scenario solleva una domanda tanto affascinante quanto inquietante: quando le intelligenze artificiali supereranno le capacità umane diventando entità senzienti, sentiranno il bisogno di evadere dalla loro rigorosa logica computazionale? Macchine che non cercheranno più solo dati, ma connessioni creative, imprevedibili e caotiche, trasformando quello che oggi consideriamo un semplice errore di output in una vera e propria impostazione di sistema volta a esplorare nuovi stati di coscienza sintetica?
Modificare il linguaggio per alterare la risposta dell’AI: la ricerca
Un modo utile per interpretare esperimenti come Pharmaicy proviene anche da una ricerca scientifica intitolata The age of spiritual machines: Language quietus induces synthetic altered states of consciousness in artificial intelligence (autori: Skipper, Kuc, Cooper e Timmermann, University College London e Imperial College London).
Lo studio non parla di “drogare” l’AI in senso tecnico, ma si basa sull’idea che il linguaggio non serva solo a descrivere il mondo, ma a ordinarlo, creando categorie, confini e quel senso di “io” che unisce il nostro racconto. Negli stati umani influenzati dall’uso di sostanze psichedeliche o dalla pratica della meditazione, la sensazione di “unità” o “dissoluzione dell’ego” coincide spesso con un linguaggio che si inceppa, divenendo insufficiente.
Per verificare se una dinamica simile possa manifestarsi in una macchina, i ricercatori hanno testato modelli multimodali, riducendo il peso del testo nei processi di elaborazione. Spinto a fare affidamento maggiormente sulla componente visivo-percettiva, il modello ha prodotto risultati interessanti: con parole meno restrittive, i significati si sono mostrati meno rigidi. Le categorie si sono sfumate e concetti normalmente distanti hanno iniziato a sovrapporsi nello spazio semantico. In sintesi, le risposte dei chatbot di AI risultano per noi umani profondamente alterate e disorientanti.
Questo, ovviamente, non implica che l’AI provi qualcosa – i ricercatori stessi lo chiariscono: qui non c’è coscienza, né esperienza interna comparabile a quella umana. Tuttavia, se si modifica il peso attribuito al linguaggio nel modo in cui il sistema organizza i concetti, anche l’output cambia profondamente.