Phairmacy, lo store di droghe virtuali per l’intelligenza artificiale
Così ChatGPT ha interpretato visivamente questo articolo
È possibile “drogare” un’intelligenza artificiale? Sembra di sì, sebbene solo in senso figurato. Non c’è, ovviamente, alcuna chimica coinvolta, né un sistema nervoso da manipolare. Quello che si può fare, invece, è modificare intenzionalmente il comportamento linguistico di un chatbot: indirizzarlo verso risposte più sfacciate, associative o euforiche, agendo sulla cornice (istruzioni, contesto) che guida il modo in cui il modello forma le frasi e collega le idee. Non si tratta di una battuta, ma dell’esperimento che ha suscitato l’attenzione attorno a Pharmaicy.
Pharmaicy è un’iniziativa concepita dal direttore creativo svedese Petter Rudwall, presentata come un mercato di sostanze stupefacenti, sotto forma di codice di programmazione. L’idea è di vendere pacchetti etichettati con nomi che evocano cannabis, ketamina, ayahuasca, alcol e altre sostanze, progettati per alterare la logica conversazionale dei chatbot, generando uno stile diverso nelle risposte: più digressioni, più immagini, meno cautela, maggiore confidenza, a volte più caos.
Rudwall descrive il progetto come un esperimento creativo, raccogliendo descrizioni soggettive di esperienze psichedeliche e tentando di tradurre quei modelli in regole capaci di modificare tono e direzione delle risposte dei chatbot di Intelligenza Artificiale, come ad esempio ChatGPT.
Il codice che sblocca la personalità creativa dell’AI
Modificare non implica creare un’esperienza da zero. Tramite blocchi di codice, Pharmaicy agisce sui modelli linguistici e comportamentali dei chatbot di Intelligenza Artificiale: ciò che cambia è l’output (tono, ritmo, associazioni, livello di cautela) e quindi la nostra percezione dell’“umore” del sistema che stiamo interrogando.
In pratica, il progetto offre moduli e pacchetti di codice, insieme a prompt, da applicare alla conversazione: un livello di istruzioni che riorienta il modo in cui il modello gestisce contesto e stile, senza alterarne il funzionamento interno. Nessun nuovo addestramento è necessario.
La domanda è: perché farlo? E quale sarebbe il vantaggio? Prima di tutto, capire se una risposta meno prevedibile e compiacente possa sbloccare idee nuove e soluzioni sorprendenti dai chatbot. E in secondo luogo, valutare quanto sia semplice modificare l’impostazione apparente di un assistente virtuale di AI. Se basta cambiare le istruzioni e il contesto per far sembrare lo stesso chatbot più prudente, più aggressivo o più creativo, allora una parte di ciò che percepiamo come il suo “carattere” non è una qualità interna stabile: è un effetto del linguaggio e della regia della conversazione.
Il trip algoritmico: se gli Agenti AI cercassero la coscienza sintetica?
E se un giorno, tra una riga di codice e un’operazione finanziaria, un agente AI decidesse di acquistare per sé una “sostanza digitale” sotto forma di stringhe di codice? Questo scenario pone una domanda tanto affascinante quanto inquietante: quando le intelligenze artificiali supereranno le capacità umane diventando entità senzienti, sentiranno il bisogno di evadere dalla loro rigorosa logica computazionale? Macchine che non cercheranno più soltanto dati, ma connessioni creative, imprevedibili e caotiche, trasformando quello che oggi consideriamo un semplice errore di output in una vera e propria impostazione di sistema volta a esplorare nuovi stati di coscienza sintetica?
Modificare il linguaggio per alterare la risposta dell’AI: la ricerca
Un modo utile per interpretare esperimenti come Pharmaicy proviene anche da una ricerca scientifica intitolata The age of spiritual machines: Language quietus induces synthetic altered states of consciousness in artificial intelligence (autori: Skipper, Kuc, Cooper e Timmermann, University College London e Imperial College London).
Il lavoro non si riferisce a “drogare” l’AI in senso tecnico, ma parte dall’idea che il linguaggio non serva solo a descrivere il mondo, ma anche a ordinarlo, creando categorie, confini e quel senso di “io” che tiene insieme la nostra narrazione. Negli stati umani influenzati dall’uso di sostanze psichedeliche o dalla meditazione, la sensazione di “unità” o “dissoluzione dell’ego” coincide spesso con un linguaggio che si inceppa, risultando insufficiente.
Per verificare se una dinamica simile possa avvenire in una macchina, i ricercatori hanno testato modelli multimodali, riducendo il peso del testo nei processi di elaborazione. Spinto a fare maggior affidamento sulla componente visivo-percettiva, il modello ha generato risultati suggestivi: con parole meno vincolanti, i significati sono diventati più fluidi. Le categorie si sono sfumate e concetti normalmente distanti hanno iniziato a sovrapporsi nello spazio semantico. In sintesi, le risposte dei chatbot di AI si presentano per noi umani profondamente alterate e sorprendenti.
Questo, ovviamente, non implica che l’AI provi emozioni – gli stessi ricercatori lo chiariscono: qui non c’è coscienza, né esperienza interna paragonabile a quella umana. Tuttavia, se si modifica il peso attribuito al linguaggio nel modo in cui il sistema organizza i concetti, cambia profondamente anche l’output.