Vai subito alle FAQ

Codex + Blender MCP: guida pratica per controllare Blender con AI

Giorgio SannaGiorgio SannaAggiornato


Lavorare in Blender con AI diventa molto più interessante quando l'assistente non si limita a scrivere codice Python, ma può anche ispezionare la scena, verificare cosa ha creato, catturare screenshot della viewport e iterare sul modello.


Questo e l'obiettivo di Blender Codex MCP: collegare Codex a una sessione Blender aperta usando il Model Context Protocol, con un addon locale dentro Blender e un server MCP eseguito da Codex.

In pratica:

  1. Blender esegue un addon locale
  2. l'addon apre un bridge su localhost:9876
  3. Codex avvia un server MCP
  4. il server MCP inoltra i comandi a Blender
  5. Codex puo ispezionare, modificare, fotografare e preparare la scena per l'export

Il progetto e disponibile su GitHub:

https://github.com/webita/blender-codex-mcp

Se vuoi applicare workflow simili alla tua azienda, Webita lavora su consulenza AI, automazioni e integrazioni operative:

  1. Webita AI
  2. Servizi Webita: digitalizzazione, AI e automazione
  3. Mini corso gratuito AI

Perche usare MCP con Blender

Un modello AI puo gia scrivere script Blender Python. Il problema e che, senza feedback, lavora quasi alla cieca.

Con un bridge MCP, invece, il ciclo diventa piu utile:

  1. Codex legge la scena.
  2. Codex modifica un oggetto o crea nuova geometria.
  3. Codex cattura uno screenshot della viewport.
  4. L'utente verifica visivamente.
  5. Codex corregge camera, materiali, luci o export.

Questo approccio e molto adatto a:

  1. mockup tecnici
  2. scene prodotto
  3. modelli per configuratori web
  4. preparazione di file .glb
  5. automazioni Blender ripetitive
  6. workflow in cui serve una revisione visiva progressiva

E lo stesso principio vale oltre Blender: molte aziende possono ridurre attivita ripetitive collegando AI, automazioni e strumenti gia usati ogni giorno, come CRM, siti web, sistemi di ticket, fogli di calcolo, e-commerce e piattaforme interne. Questo e il tipo di lavoro che Webita sviluppa con il servizio Webita AI.

Cos'e MCP

MCP, Model Context Protocol, e uno standard aperto per collegare applicazioni AI a sistemi esterni, strumenti, sorgenti dati e workflow.

La documentazione ufficiale lo descrive come uno standard per connettere applicazioni AI a strumenti e sistemi esterni in modo coerente:

Model Context Protocol documentation

Nel nostro caso, il sistema esterno e Blender.

Cosa fa Blender Codex MCP

Blender Codex MCP espone a Codex strumenti come:

  1. get_scene_info: leggere oggetti, materiali e stato della scena
  2. get_object_info: ispezionare un singolo oggetto
  3. get_viewport_screenshot: catturare uno screenshot della viewport
  4. execute_blender_code: eseguire Python dentro Blender
  5. blender_health_check: verificare che Blender sia raggiungibile
  6. sync_camera_to_viewport: copiare la vista corrente nella camera attiva
  7. export_glb: esportare la scena o gli oggetti selezionati in .glb

Questo non sostituisce Blender. Lo rende controllabile da Codex.

Requisiti

Prima di iniziare servono:

  1. Blender installato
  2. Codex desktop o un runtime Codex compatibile con MCP
  3. uv installato
  4. Python 3.10 o superiore
  5. la repo blender-codex-mcp

uv e un package/project manager Python molto veloce, usato qui per avviare il server MCP:

uv documentation

Installazione

Clona il repository:

git clone https://github.com/webita/blender-codex-mcp.git cd blender-codex-mcp

Poi apri Blender e installa l'addon:

  1. apri Blender
  2. vai in Edit > Preferences > Add-ons
  3. clicca Install...
  4. seleziona addon.py dalla repo
  5. abilita Interface: Blender Codex MCP
  6. nella viewport premi N
  7. apri la tab BlenderCodexMCP
  8. clicca Connect to MCP server

Di default Blender ascolta su:

localhost:9876

Configurare Codex

Aggiungi questa configurazione a ~/.codex/config.toml:

[mcp_servers.blender]command = "uv"args = [ "--directory", "/absolute/path/to/blender-codex-mcp", "run", "blender-codex-mcp" ] [mcp_servers.blender.env]BLENDER_HOST = "localhost"BLENDER_PORT = "9876"DISABLE_TELEMETRY = "true"
Sostituisci /absolute/path/to/blender-codex-mcp con il percorso reale della repo.

Dopo la modifica, riavvia Codex.

Primo test

Con Blender aperto e addon connesso, puoi chiedere a Codex:

Inspect the open Blender scene and take a viewport screenshot.

Oppure in italiano:

Controlla la scena Blender aperta e fammi uno screenshot della viewport.

Se tutto e configurato correttamente, Codex dovrebbe riuscire a leggere la scena e usare gli strumenti MCP esposti dal server.

Workflow consigliato

Il modo migliore di lavorare non e chiedere a Codex di rifare tutta la scena in un solo passaggio.

Meglio procedere cosi:

  1. ispezione scena
  2. modifica piccola e verificabile
  3. screenshot viewport
  4. correzione di camera, scala, materiali o luci
  5. export finale

Esempi di prompt utili:

Inspect the scene and tell me which objects are present.
Create a clean product-view camera and add soft studio lighting.
Center the selected model and place it on the ground plane.
Export the selected model as a GLB file for web embedding.

Export GLB e WordPress

Per pubblicare un modello 3D sul web in modo efficiente, il formato più pratico e utilizzato è il .glb, perché compatto, leggero e perfettamente compatibile con i viewer WebGL moderni. Un flusso di lavoro semplice e funzionale prevede alcuni passaggi fondamentali.


Si parte dalla preparazione del modello all’interno di Blender, dove è importante ottimizzare la scena eliminando elementi inutili e mantenendo una geometria pulita. Successivamente, il modello va centrato correttamente rispetto all’origine della scena, così da garantire una visualizzazione coerente una volta online.


A questo punto si procede con l’applicazione di materiali leggeri e ottimizzati, evitando texture troppo pesanti che potrebbero rallentare il caricamento sul web. È utile anche configurare una camera e un’illuminazione adeguata per generare una preview efficace e valorizzare il modello.


Una volta completata l’ottimizzazione, il file viene esportato in formato .glb, pronto per essere utilizzato sul web.


  1. Infine, il modello può essere caricato su WordPress e visualizzato tramite un viewer WebGL, permettendo agli utenti di interagire con l’oggetto 3D direttamente dal browser, senza bisogno di plugin o software aggiuntivi.


Una soluzione comoda per WordPress/Elementor e usare <model-viewer>:

model-viewer documentation

Esempio HTML:

<script type="module" src="https://unpkg.com/@google/model-viewer/dist/model-viewer.min.js"></script> <model-viewersrc="https://example.com/wp-content/uploads/model.glb"camera-controlsauto-rotateinteraction-prompt="none"shadow-intensity="1"exposure="1"style="width:100%; height:500px; background:#fff;" ></model-viewer>

Nel repository trovi anche una guida dedicata: WordPress embed guide

Se l'obiettivo e integrare modelli 3D, configuratori, automazioni o contenuti dinamici dentro un sito aziendale, puoi approfondire anche i servizi Webita per siti web e AI:

  1. Webita AI
  2. Webita: agenzia web, SEO, sviluppo e automazione

Plugin Codex: cosa significa davvero

Una domanda naturale e: "Si puo installare come plugin Codex con un click?"

Al momento, non esiste un marketplace pubblico ufficiale per plugin Codex di terze parti. La repo include anche uno scaffold plugin Codex locale, utile per workflow futuri o sperimentali, ma oggi non va presentato come installazione principale.

In breve:

  1. MCP server: e il motore reale
  2. Blender addon: e il bridge dentro Blender
  3. plugin scaffold: e una base futura/locale per packaging plugin

Sicurezza

Lo strumento execute_blender_code puo eseguire Python dentro Blender.

Questo e potente, ma richiede attenzione:

  1. salva il file .blend prima di modifiche importanti
  2. lavora a piccoli passi
  3. verifica spesso con screenshot
  4. usa repo e script di cui ti fidi

Riferimenti

  1. Repository Blender Codex MCP: https://github.com/webita/blender-codex-mcp
  2. Webita AI: https://webita.eu/it/webita-ai
  3. Webita servizi digitali: https://webita.eu/it
  4. Mini corso gratuito AI: https://webita.eu/it/corso-ai
  5. Model Context Protocol: https://modelcontextprotocol.io/
  6. Blender Python API: https://docs.blender.org/api/
  7. uv documentation: https://docs.astral.sh/uv/
  8. model-viewer: https://modelviewer.dev/


Blender Codex MCP non e un semplice esperimento: e un modo pratico per rendere Blender piu accessibile a workflow AI assistiti. Per chi lavora con modelli tecnici, configuratori, scene prodotto o contenuti 3D per siti web, questo apre un workflow molto concreto. Se vuoi valutare un progetto di automazione AI, integrazione con il sito o workflow personalizzato, puoi partire da Webita AI.

Repository: https://github.com/webita/blender-codex-mcp

Domande frequenti

Che cos'e Blender Codex MCP?

Blender Codex MCP e un progetto open source che collega Codex a Blender tramite Model Context Protocol. Permette a Codex di ispezionare una scena Blender, eseguire codice Python, catturare screenshot della viewport e preparare modelli per export web come .glb.

Serve tenere Blender aperto?

Si. Blender deve essere aperto perche il server MCP comunica con un addon installato dentro Blender. Se Blender viene chiuso, Codex non puo piu leggere o modificare la scena.

Devo installare un addon in Blender?

Si. Il progetto include un file addon.py da installare in Blender tramite Edit > Preferences > Add-ons > Install. Una volta abilitato, l'addon apre un bridge locale su localhost:9876.

Cos'e MCP?

MCP significa Model Context Protocol. E uno standard che permette alle applicazioni AI di collegarsi a strumenti esterni, dati e workflow. In questo caso viene usato per collegare Codex a Blender.

Posso installarlo come plugin Codex con un click?

Al momento no. Non esiste ancora un marketplace pubblico ufficiale per plugin Codex di terze parti. Il modo consigliato per usarlo oggi e scaricare la repo da GitHub, installare l'addon Blender e configurare il server MCP in Codex.

Allora a cosa serve lo scaffold plugin Codex incluso nella repo?

Serve come base sperimentale per futuri workflow plugin/locali. Il motore reale del progetto resta il server MCP; lo scaffold plugin documenta come potrebbe essere impacchettato in futuro quando il supporto plugin sara piu aperto.

Codex puo vedere davvero cosa succede in Blender?

Codex puo leggere informazioni della scena e catturare screenshot della viewport attraverso gli strumenti MCP. Questo rende possibile un ciclo di lavoro piu affidabile: modifica, screenshot, verifica e correzione.

Posso esportare modelli per il web?

Si. Il progetto include uno strumento export_glb e una guida per esportare modelli .glb, caricandoli poi su WordPress o in un viewer WebGL come <model-viewer>.