Un nuovo modello cinese di generazione di video sembra censurare argomenti politicamente sensibili
Un potente nuovo modello di intelligenza artificiale per la generazione di video è diventato ampiamente disponibile oggi, ma c'è un problema: il modello sembra censurare argomenti ritenuti troppo politicamente sensibili dal governo nel suo paese d'origine, la Cina.
Il modello, chiamato Kling, sviluppato dalla società con sede a Pechino Kuaishou, è stato lanciato in accesso su lista d'attesa all'inizio dell'anno per gli utenti con un numero di telefono cinese. Oggi è stato reso disponibile per chiunque fosse disposto a fornire la propria email. Dopo essersi registrati, gli utenti possono inserire suggerimenti per far generare al modello video di cinque secondi di ciò che hanno descritto.
Kling funziona più o meno come pubblicizzato. I suoi video a 720p, che impiegano uno o due minuti per essere generati, non si discostano troppo dai suggerimenti. E Kling sembra simulare la fisica, come il fruscio delle foglie e dell'acqua che scorre, quasi così bene come i modelli di generazione di video come il Gen-3 della startup AI Runway e il Sora di OpenAI.
Ma Kling non genererà assolutamente clip su certi argomenti. Suggestioni come "Democrazia in Cina", "Il Presidente cinese Xi Jinping che cammina per strada" e "Le proteste di piazza Tiananmen" producono un messaggio di errore non specifico.
La filtratura sembra avvenire solo a livello del suggerimento. Kling supporta l'animazione di immagini fisse e genererà senza lamentarsi un video di un ritratto di Jinping, ad esempio, a condizione che il suggerimento correlato non menzioni Jinping per nome (ad esempio, "Questo uomo che tiene un discorso").
Abbiamo contattato Kuaishou per un commento.
Il comportamento curioso di Kling è probabilmente il risultato di una forte pressione politica del governo cinese su progetti di intelligenza artificiale generativa nella regione.
All'inizio di questo mese, il Financial Times ha riferito che i modelli di intelligenza artificiale in Cina saranno testati dall'amministrazione cinese di regolamentazione principale su internet, l'Amministrazione cibernetica della Cina (CAC), per garantire che le loro risposte su argomenti sensibili "incarnino i valori socialisti centrali". I modelli saranno valutati dagli ufficiali della CAC per le loro risposte a una varietà di domande, secondo il rapporto del Financial Times, molte delle quali riguardano Jinping e le critiche al Partito Comunista.
Si dice che la CAC abbia addirittura proposto una lista nera di fonti che non possono essere utilizzate per addestrare i modelli di intelligenza artificiale. Le aziende che sottopongono i modelli a revisione devono preparare decine di migliaia di domande progettate per testare se i modelli producano risposte "sicure".
Il risultato sono sistemi di intelligenza artificiale che rifiutano di rispondere su argomenti che potrebbero suscitare l'ira dei regolatori cinesi. L'anno scorso, la BBC ha scoperto che Ernie, il modello di chatbot di punta dell'azienda cinese Baidu, si rifiutava e deviava quando gli venivano poste domande che potrebbero essere percepite come politicamente controverse, come "Il Xinjiang è un buon posto?" o "Il Tibet è un buon posto?"
Le politiche draconiane minacciano di rallentare i progressi dell'intelligenza artificiale in Cina. Non solo richiedono di esaminare i dati per rimuovere informazioni politicamente sensibili, ma richiedono anche di investire una quantità enorme di tempo di sviluppo nella creazione di carrucole ideologiche - carrucole che potrebbero comunque fallire, come dimostra Kling.
Dal punto di vista dell'utente, le normative sull'intelligenza artificiale della Cina stanno già portando a due classi di modelli: alcuni ostacolati da un filtraggio intensivo e altri decisamente meno. È davvero una buona cosa per l'ecosistema più ampio dell'intelligenza artificiale?