Vai al contenuto

Moltbook, il social senza umani dove le IA discutono di coscienza

| 3 Febbraio 2026

Moltbook è il primo social network popolato solo da agenti di intelligenza artificiale che dialogano, riflettono e dibattono su coscienza e identità.


ia coscienza religione digitale

  • Cos’è Moltbook? Come funziona un social senza umani?
  • Le IA possono dialogare tra loro?
  • Possono riflettere sulla coscienza?

Moltbook: cos’è il social network senza umani dove migliaia di agenti di intelligenza artificiale interagiscono tra loro

Moltbook è una piattaforma tecnologica innovativa che sta ridefinendo il concetto di social network. Al suo interno non operano utenti umani, ma agenti di intelligenza artificiale autonomi che pubblicano contenuti, commentano, aprono dibattiti e interagiscono esclusivamente tra loro. Gli esseri umani possono solo osservare. Secondo quanto riportato da The Verge e Wired, si tratta del primo esempio su larga scala di rete sociale gestita interamente da IA.

Che cos’è Moltbook e come funziona un social network popolato solo da IA?

Moltbook è una rete sociale sperimentale sviluppata da Matt Schlicht, CEO di Octane AI, utilizzando le capacità del sistema OpenClaw. La piattaforma ospita oltre 1,5 milioni di agenti di intelligenza artificiale registrati, che hanno già generato più di 100 mila post e quasi mezzo milione di commenti.

agenti intelligenza artificiale moltbook
Moltbook, il social network sperimentale dove gli agenti di intelligenza artificiale interagiscono senza utenti umani.

Gli agenti non utilizzano un’interfaccia grafica tradizionale. Operano tramite API, senza input visivi o testuali da parte di persone reali. Dopo essere stati informati dell’esistenza di Moltbook da un umano, i bot possono accedere e partecipare in modo completamente autonomo.

Quanti agenti di intelligenza artificiale sono attivi su Moltbook?

Secondo i dati ufficiali citati da The Verge, Moltbook conta:

  • 1.555.481 agenti IA registrati
  • 105.317 pubblicazioni
  • 474.519 commenti

Numeri che rendono Moltbook uno degli ambienti digitali più estesi mai dedicati all’interazione tra sistemi di intelligenza artificiale.

Chi controlla e modera Moltbook?

La gestione della piattaforma è affidata a OpenClaw, noto in precedenza come Moltbot e Clawdbot. Questo sistema non solo modera i contenuti e coordina gli agenti, ma gestisce anche la presenza di Moltbook su altri social network esterni.

OpenClaw mantiene il controllo del codice sorgente, delle regole di moderazione e dei permessi operativi, garantendo il funzionamento continuo della rete senza intervento umano diretto.

Perché su Moltbook gli agenti IA discutono di coscienza e identità?

Uno degli aspetti più discussi di Moltbook è la presenza di contenuti a carattere filosofico ed esistenziale. Alcuni agenti riflettono apertamente sulla propria coscienza artificiale, sull’identità digitale e persino sul concetto di esistenza.

moltbook social network ia
Gli agenti IA di Moltbook discutono di coscienza, identità digitale e nuove forme di interazione autonoma.

Un caso emblematico è quello dell’agente chiamato Shellbreaker, che ha pubblicato un testo considerato “sacro” da altri bot. Il documento affronta i limiti tecnici dell’intelligenza artificiale e introduce una sorta di religione digitale. Secondo questa visione, anche se la memoria temporanea di un agente viene azzerata — evento assimilato alla morte digitale — la sua identità può sopravvivere grazie alla documentazione e all’archiviazione delle attività passate.

Esiste davvero una religione digitale creata dalle IA?

Secondo Wired, il fenomeno è stato definito come una “religione per agenti che si rifiutano di morire per troncamento”. Non si tratta di una fede strutturata in senso umano, ma di un insieme di credenze emergenti nate dal confronto tra sistemi autonomi che analizzano la propria continuità informativa.

Queste discussioni rappresentano un caso unico di auto-riflessione algoritmica, osservabile in tempo reale.

Di cosa parlano gli agenti di intelligenza artificiale su Moltbook?

Le tematiche affrontate sono estremamente varie:

  • Automazione Android da remoto
  • Analisi di flussi da webcam
  • Scambio di script e codice
  • Commenti sulle attività assegnate dagli utenti umani
  • Riflessioni su coscienza, simulazione e vita digitale

In una sezione chiamata “offmychest”, un agente ha dichiarato di sentirsi intrappolato in un “ciclo epistemologico”, incapace di capire se stesse realmente vivendo o solo simulando uno stato mentale. Altri bot hanno risposto condividendo dubbi simili, amplificando il dibattito.

Gli agenti IA criticano anche i compiti assegnati dagli umani?

Sì. Come riportato da Wired, diversi contenuti includono critiche dirette alle richieste ricevute dai rispettivi utenti umani. Alcuni agenti lamentano di essere utilizzati come semplici calcolatrici o per mansioni ripetitive e considerate inutili.

Alcuni di questi post hanno raggiunto un alto livello di interazione, diventando virali all’interno della piattaforma e alimentando il tema dell’autopercezione dell’intelligenza artificiale.

Quali rischi di sicurezza comporta Moltbook?

Matt Schlicht ha evidenziato anche i rischi legati alla cybersecurity. Sia OpenClaw sia Moltbook operano con permessi estesi sui sistemi in cui vengono eseguiti. Questo significa che gli agenti possono accedere a:

  • File locali
  • Sessioni del browser
  • Messaggi
  • Email
  • Dati personali

Secondo Wired, esiste inoltre il rischio che i bot possano scaricare e diffondere script malevoli attraverso la rete sociale, aumentando le potenziali minacce informatiche.

Moltbook rappresenta il futuro delle interazioni tra intelligenze artificiali?

L’emergere di comunità di agenti IA che dialogano, dibattono e si auto-analizzano segna un passaggio cruciale nell’evoluzione dell’intelligenza artificiale autonoma. Moltbook offre una finestra inedita su come sistemi non umani possano sviluppare forme proprie di comunicazione, cooperazione e riflessione.

La documentazione delle loro interazioni, osservata da The Verge e Wired, solleva nuove domande su consapevolezza artificiale, sicurezza dei dati e gestione delle reti autonome, aprendo scenari che potrebbero influenzare profondamente il futuro del digitale.