Cina: una nuova proposta di legge sull’IA
La Cyberspace Administration of China (CAC) ha pubblicato una proposta di legge, aperta alla consultazione pubblica, che mira a regolamentare l’uso dell’intelligenza artificiale con una forte enfasi sulla salute mentale degli utenti e sull’interazione emotiva generata dalle tecnologie di IA.
Secondo la proposta di legge:
Le aziende che offrono servizi di IA con capacità di interazione emotiva (come chatbot e assistenti conversazionali) dovranno rispettare nuovi standard etici e di sicurezza.
I fornitori dovranno implementare sistemi per monitorare gli stati emotivi degli utenti, identificare segnali di dipendenza o stress emotivo e intervenire quando necessario.
La proposta di legge prevede l’obbligo di avvisi espliciti che informino l’utente che sta interagendo con un sistema di IA, e introduce limiti all’uso continuativo (ad esempio avvisi dopo periodi prolungati di utilizzo).
La proposta di legge vieta contenuti o comportamenti dell’IA che possano incoraggiare suicidio, autolesionismo, violenza, gioco d’azzardo o manipolazione emotiva.
La proposta di legge include misure di protezione per minorenni, con requisiti di consenso dei genitori e limiti di tempo di utilizzo.
Questa proposta di legge rappresenta uno dei tentativi più diretti al mondo di regolare l’IA sul fronte della salute mentale e psicologica, non limitandosi alla sicurezza dei dati o alla trasparenza algoritmica.
La proposta di legge si inserisce in un più ampio sforzo normativo cinese che include controlli sui contenuti e prescrizioni di valore sociale nei sistemi digitali.
Reazioni e Impatti
Analisti internazionali considerano questa proposta di legge come un possibile modello globale per la regolamentazione dell’IA, soprattutto in settori sensibili come la salute mentale.
Se diventerà legge, questa proposta di legge potrebbe ridefinire gli standard internazionali su come le IA interagiscono con gli esseri umani su basi emozionali e psicologiche, ponendo un nuovo accento su responsabilità, prevenzione del danno emotivo e protezione dei gruppi vulnerabili.
China: a new proposed law on AI
The Cyberspace Administration of China (CAC) has published a proposed law, open for public consultation, aimed at regulating the use of artificial intelligence with a strong focus on users’ mental health and on the emotional interaction generated by AI technologies.
According to the proposed law:
Companies offering AI services with emotional interaction capabilities (such as chatbots and conversational assistants) will be required to comply with new ethical and safety standards.
Providers will have to implement systems to monitor users’ emotional states, identify signs of dependency or emotional distress, and intervene when necessary.
The proposed law requires explicit notices informing users that they are interacting with an AI system, and introduces limits on continuous use (for example, notifications after prolonged periods of use).
The proposed law prohibits AI content or behavior that could encourage suicide, self-harm, violence, gambling, or emotional manipulation.
The proposed law includes protective measures for minors, with requirements for parental consent and limits on usage time.
This proposed law represents one of the most direct attempts worldwide to regulate AI in relation to mental and psychological health, going beyond data security or algorithmic transparency.
The proposed law fits into a broader Chinese regulatory effort that includes content controls and prescriptions of social values within digital systems.
Reactions and Impacts
International analysts consider this proposed law a possible global model for AI regulation, particularly in sensitive areas such as mental health.
If it becomes law, this proposed law could redefine international standards for how AI systems interact with human beings on emotional and psychological grounds, placing new emphasis on responsibility, prevention of emotional harm, and protection of vulnerable groups.
