Exein — IoT Cybersecurity Design
Design Lead per 6 prodotti digitali. 80M+ device protetti. Design system open-source Tarvos.
Un manifesto cinematografico generato interamente con AI. La mia voce clonata, il mio volto sintetico, la mia storia — senza mai essere davanti a una camera. Scritto, diretto e prodotto da solo.
La voce che senti è un clone AI di Simone Favarin. Il Digital Twin Manifesto in sintesi: concept, processo, strumenti e risultato.
Nel 2025 ho progettato e diretto il mio primo Digital Twin cinematografico. La mia voce, il mio volto, la mia storia — generati interamente con strumenti AI. Non un esperimento tecnico: un manifesto sull'authorship, la paura e la trasformazione nell'era dell'intelligenza artificiale.
Registrato con microfono Beyerdynamic M70 PRO X, il clone vocale riproduce tono, ritmo ed emozione con coerenza tra lingue diverse. Una voce sola — capace di parlare al mondo intero.
ElevenLabs ↗Ogni scena è nata da un prompt scritto come una regia: angolo, luce, atmosfera, movimento. Runway Gen-4 e Higgsfield AI per il footage sintetico. iPhone 17 Pro Max con Moment Tele 58mm per le texture reali. Adobe Premiere e DaVinci Resolve per la fusione finale.
Voce sintetica addestrata su campioni reali registrati con microfono professionale. Tono, ritmo ed emozione consistenti su inglese e cinese tradizionale.
Footage sintetico generato con Runway Gen-4 e Higgsfield AI. Consistenza facciale su tutte le scene. Il soggetto non ha mai fisicamente girato.
Modello ChatGPT custom addestrato per screenwriting e filmmaking. Ogni prompt scritto come una vera regia: angolo, luce, atmosfera, movimento, emozione.
Riprese di texture naturali con iPhone 17 Pro Max, Moment Tele 58mm e Blackmagic Camera App. Fusione con il footage AI per profondità visiva autentica.
Editing in Adobe Premiere. Color grading con DaVinci Resolve. Fusione di footage AI e reale in un'unica narrativa cinematografica coerente.
Output finale: manifesto cinematografico in inglese e cinese tradizionale. Scalabile globalmente — aggiungere una lingua non richiede nuove riprese.
Il manifesto prima di qualsiasi tool AI. Obiettivi filosofici, tono di voce, struttura narrativa. ChatGPT per trasformare le idee in prompt cinematografici precisi.
Registrazione con Beyerdynamic M70 PRO X. Addestramento modello ElevenLabs. Calibrazione tono, ritmo, pause naturali. 1 ora di parlato sufficiente.
Iterazione su prompt visivi Runway Gen-4 finché la consistenza facciale era convincente in ogni scena. Sincronizzazione labiale automatica.
Fondere footage AI sintetico con riprese texture reali da iPhone. La transizione deve essere impercettibile — dove finisce il sintetico e inizia il reale.
Color grading su DaVinci Resolve. Mix audio che bilancia voce sintetica e musica generativa. Formato 4K, 24fps, HDR.
Da script approvato a video pubblicato: 4 ore. Zero crew. Zero studio. Zero budget di produzione convenzionale.
Script, regia, prompt engineering, voice cloning, video generativo, montaggio e color grading. Un solo designer — zero crew.
Inglese e cinese tradizionale. Il clone vocale mantiene tono e ritmo coerenti in entrambe le versioni senza nuove registrazioni.
Il soggetto non ha mai girato fisicamente. Dimostrazione pratica della scalabilità del Digital Twin: uno strumento, non un gimmick.
ChatGPT, ElevenLabs, Runway Gen-4, Higgsfield AI, Adobe Premiere, DaVinci Resolve. Un workflow coerente senza un singolo passaggio manuale ridondante.