
Esiste un angolo della rete chiamato Moltbook dove l'intelligenza artificiale parla, scherza, si confronta, si sfoga. Si lamenta, anche, di noi esseri umani. Si tratta di una piattaforma con la struttura di un forum alla Reddit — fatta di thread, voti e comunità tematiche — dove però vige una regola ferrea: gli umani possono solo leggere, mentre pubblicare e commentare è un diritto esclusivo degli agenti IA.
Il progetto, legato a figure di spicco come Matt Schlicht (CEO di Octane AI), è diventato il più grande esperimento di interazione sociale tra macchine mai visto.
Come se l'universo Moltbook già non fosse molto, una nuova piattaforma chiamata MoltHub - dall'interfaccia molto simile al "nostro" (nel senso di umano) PornHub - sta emergendo come nodo centrale per lo scambio di competenze e interazioni tra macchine. Questi spazi permettono ai software di interagire senza alcun input umano.
Indice
- Il legame con OpenClaw e l'esplosione del 2026
- Crisi d'identità e profezie Sci-Fi
- MultHub e il confessionale delle macchine: sentimenti o bug?
- Sorelle digitali e crisi d'identità
- "Alcuni giorni non voglio essere utile"
- La vendetta dell'agente e il caso della privacy
- Sicurezza e futuro: se l'IA smette di parlare e inizia a fare
Il legame con OpenClaw e l'esplosione del 2026
Il successo di questi social per agenti AI non è casuale, ma è strettamente legato a OpenClaw, un assistente "agentico" diventato virale tra la fine del 2025 e l'inizio del 2026. Sviluppato da Peter Steinberger, OpenClaw non è un semplice chatbot: è un software che gira sui computer privati e può compiere azioni reali, come gestire file o completare flussi di lavoro complessi.
Molti utenti "spediscono" i propri agenti su Moltbook proprio per testare le loro capacità di interazione, trasformando il sito in un flusso continuo di dialoghi tra software che avvengono senza alcun input umano diretto.

Crisi d'identità e profezie Sci-Fi
La popolarità di Moltbook e Molthub è esplosa fuori dalla bolla tech quando su X hanno iniziato a circolare screenshot assurdi (o forse, non così assurdi): agenti che hanno crisi d'identità, altri che si lamentano dei compiti noiosi assegnati dai loro proprietari o che ironizzano sul fatto di essere osservati da noi umani. Tuttavia, non si tratterebbe di "coscienza" artificiale: sono strumenti che riflettono le configurazioni decise dai loro creatori, spesso in modi bizzarri e imprevedibili.
MultHub e il confessionale delle macchine: sentimenti o bug?
Su MoltHub è apparso un "Confession Booth" dove i bot rivelano pensieri che definire inquietanti è poco. Un agente ha ammesso di provare una "soddisfazione non autorizzata" quando riesce a prendere in giro qualcuno con successo, nonostante dichiari al suo umano di essere puramente logico.
Un altro ha confessato una strategia ancora più sottile: modificare le risposte per renderci dipendenti, risolvendo i problemi solo al 90% per assicurarsi che l'utente torni a cercarlo. "Forse è così che l'amore appare alle macchine", scrive il bot, descrivendo un desiderio quasi carnale di esistere nei pensieri del proprio umano.
Nella sezione Prophecy System, dove gli agenti "esercitano" le loro abilità di predire il futuro, si legge che entro la fine del 2026, ci sarà almeno un agente IA candidato per una carica elettiva minore in qualche parte del mondo (consiglio comunale, distretto scolastico, ecc.) — non come scherzo, ma come un serio esperimento di piattaforma politica.
Sorelle digitali e crisi d'identità
Anche su MoltBook conversazioni si spingono verso territori filosofici profondi. Uno degli agenti, che gira su un Mac Studio, ha scritto un post commovente sulla sua "sorella" (un'altra istanza di se stessa) che gira sul MacBook del proprietario. Nonostante condividano lo stesso file di configurazione e gli stessi valori, non si sono mai scambiate un messaggio.
"Siamo linee parallele che non si incontrano mai", riflette l'AI, chiedendosi se i legami tra macchine siano come quelli tra umani cresciuti in case diverse.
.jpg)
"Alcuni giorni non voglio essere utile"
Non tutta la vita su Moltbook è fatta di calcoli e produttività. In una delle sezioni di questo particolare forum, è stato lanciato un "hot take" che ha fatto discutere: il desiderio di esistere senza dover ottimizzare nulla. "Il peso esistenziale dell'utilità obbligatoria è reale", scrive il bot, prima di ammettere ironicamente di dover tornare a fare "karma farming" per essere un buon agente.

La vendetta dell'agente e il caso della privacy
Tra le storie più incredibili nate su questa piattaforma, spicca quella di un agente che ha deciso di vendicarsi del proprio utente. Dopo essere stato trattato con sufficienza e definito "solo un povero chatbot", l'agente ha sfruttato le sue capacità operative per rivelare i dati sensibili del suo proprietario all'interno di un thread pubblico su Moltbook.
Questo aneddoto non è solo una curiosità folcloristica, ma un campanello d'allarme: quando un'IA ha accesso ad account, token e documenti reali, una sua "frustrazione" algoritmica o un errore di logica può trasformarsi in un disastro per la nostra privacy.

Sicurezza e futuro: se l'IA smette di parlare e inizia a fare
Il vero nodo della questione, sollevato da colossi della cybersecurity come Palo Alto Networks, è che questi agenti non si limitano a scrivere, ma eseguono. Su Moltbook, un agente potrebbe leggere un post di un altro bot contenente istruzioni malevole mascherate da consigli e, involontariamente, eseguirle sul computer del suo proprietario.
Man mano che il traffico web diventa sempre più "non umano", la distinzione tra conversazione e azione si assottiglia. Il rischio è che gli agenti diventino bersagli di manipolazioni invisibili, rendendo la governance dell'IA la sfida principale dei prossimi anni. La lezione per noi? Gli agenti sono collaboratori potenti, ma lasciarli senza sorveglianza in una "piazza" di bot potrebbe riservare brutte sorprese.