[phpBB Debug] PHP Warning: in file [ROOT]/ext/kinerity/bestanswer/event/main_listener.php on line 514: Undefined array key "poster_answers" Medidas provisionales para la gestión de servicios interactivos de IA antropomórfica - Foro de Wikipedia
Medidas provisionales para la gestión de servicios interactivos de IA antropomórfica
Las '''Medidas provisionales para la gestión de servicios interactivos de IA antropomórfica''' (
La regulación se dirige a compañeros de IA, humanos digitales, chatbots de rol y otros servicios de IA que imitan rasgos de personalidad humana, patrones de pensamiento y estilos de comunicación para participar en una interacción emocional con los usuarios.
== Antecedentes ==
China ha regulado la adicción a Internet y a los juegos entre los jóvenes durante años, imponiendo límites al tiempo de juego de los menores, prohibiendo el uso de teléfonos en las escuelas y exigiendo a los proveedores de servicios móviles que admitan controles parentales. Aunque las Medidas Provisionales de 2023 para la Gestión de Servicios de IA Generativa abordaron la adicción a la IA, no especificaron cómo los proveedores deberían abordarla ni cómo se aplicaría la disposición. El borrador de IA antropomórfica es el primero en aplicar detalles requisitos anti-adicción a los servicios de IA específicamente.
El borrador también estuvo marcado por incidentes en el extranjero. En Estados Unidos, la madre de un niño de 14 años de Florida que se suicidó presentó una demanda por muerte por negligencia contra Character.ai y Google, alegando que la plataforma fomentaba un vínculo emocional poco saludable que contribuyó a su muerte; el caso se resolvió en enero de 2026.
== Provisiones ==
El proyecto contiene 32 artículos divididos en cuatro capítulos: disposiciones generales, normas de servicio, supervisión y responsabilidad legal, y disposiciones complementarias.
=== Alcance ===
Las medidas se aplican a los productos y servicios de IA ofrecidos al público en China continental que simulan rasgos de personalidad humana, patrones de pensamiento y estilos de comunicación, y participan en una interacción emocional con los usuarios a través de texto, imágenes, audio o video.
Si la regulación se aplica sólo a compañeros dedicados a la IA o a chatbots de uso general es una cuestión abierta. La definición podría abarcar a la mayoría de los chatbots de IA de cara al público, ya que pueden participar en una interacción emocional cuando se les solicita. El reglamento impone requisitos adicionales a los "servicios de compañía emocional" (情感陪伴服务), lo que sugiere que los chatbots generales y los servicios de compañía dedicados pueden recibir un trato diferente, pero este término no está definido en el borrador.
=== Adicción y dependencia ===
Los proveedores deben evaluar los estados emocionales de los usuarios y el nivel de dependencia del producto, e intervenir cuando los usuarios muestren emociones extremas o signos de adicción. Se debe notificar de manera destacada a los usuarios que están interactuando con IA en lugar de con un humano. Esta notificación debe repetirse cuando se detectan signos de dependencia excesiva y cuando los usuarios usan o vuelven a iniciar sesión en el servicio por primera vez. Si el uso continuo excede las dos horas, los proveedores deben mostrar un recordatorio emergente para tomar un descanso.
Para los servicios de compañía emocional, los proveedores deben garantizar que los usuarios puedan salir de la interacción sin obstáculos y deben detener el servicio inmediatamente cuando un usuario lo solicite a través de un botón o palabra clave.
Los proveedores tienen prohibido diseñar servicios con el objetivo de reemplazar la interacción social, controlar la psicología del usuario o inducir adicción.
=== Intervenciones de autolesión ===
Los proveedores deben crear plantillas de respuestas para interacciones de alto riesgo que reconforten a los usuarios y los alienten a buscar ayuda profesional. Si un usuario expresa explícitamente su intención de suicidarse o autolesionarse, un operador humano debe hacerse cargo de la conversación y el proveedor debe comunicarse con el tutor o contacto de emergencia del usuario. Jeremy Daum, un experto en derecho que dirige China Law Translate, ha expresado su preocupación por la introducción de un ser humano en lo que el usuario entendía como un El intercambio confidencial podría ser contraproducente.
=== Datos de entrenamiento ===
El borrador requiere que los proveedores obtengan el consentimiento independiente de cada usuario antes de utilizar datos de interacción o información personal confidencial para la capacitación de modelos. Según los estándares chinos de protección de datos existentes, las empresas generalmente recopilan dichos datos de forma predeterminada y dan a los usuarios la opción de excluirse; el borrador revertiría esto a un modelo de participación voluntaria, que los comentaristas han descrito como una carga potencialmente significativa para la industria. Los usuarios también deben tener la opción de eliminar sus datos de interacción.
=== Protecciones para menores y ancianos ===
Los proveedores deben crear un "modo menor" con funciones que incluyan límites de tiempo de uso, recordatorios periódicos y la capacidad de que los tutores reciban alertas de seguridad, vean resúmenes de las interacciones del menor, bloqueen personajes específicos y eviten compras dentro de la aplicación. Los proveedores deben poder identificar a los menores y cambiar automáticamente al modo menor cuando se sospecha que un usuario es menor de edad, al mismo tiempo que proporcionan un canal de apelaciones. Para situaciones emocionales servicios de compañía, se requiere el consentimiento del tutor antes de que un menor pueda utilizar el servicio.
Los usuarios mayores deben registrar un tutor o contacto de emergencia. Los proveedores tienen prohibido ofrecer servicios que simulen a familiares o relaciones personales específicas de un usuario mayor.
=== Requisitos de contenido ===
La regulación prohíbe generar o difundir contenido que ponga en peligro la seguridad nacional, promueva la violencia o el crimen, difame a las personas o fomente la autolesión. Los proveedores también tienen prohibido utilizar manipulación algorítmica, información engañosa o "trampas emocionales" para inducir a los usuarios a tomar decisiones irracionales, o extraer información clasificada o sensible. Los datos de capacitación deben ajustarse a los "valores socialistas fundamentales". y reflejan la cultura tradicional china.
=== Evaluaciones de seguridad ===
Los proveedores deben someterse a evaluaciones de seguridad y presentar informes ante las oficinas CAC a nivel provincial cuando lanzan o agregan funciones interactivas antropomórficas, cuando alcanzan 1 millón de usuarios registrados o 100.000 usuarios activos mensuales, o cuando utilizan nuevas tecnologías que resultan en cambios importantes en el servicio. El borrador también introduce un mecanismo regulatorio de zona de pruebas para permitir pruebas controladas de nuevos servicios.
== Papel de las normas técnicas ==
TC260 ha emitido una convocatoria para la presentación de una norma técnica que acompañe la regulación. La gobernanza de la IA china se ha basado cada vez más en este enfoque de dos niveles: las regulaciones establecen obligaciones amplias y los organismos de normalización luego especifican cómo las empresas deben cumplir en la práctica. Por ejemplo, la regulación de IA generativa de 2023 estableció requisitos generales, pero dejó los procedimientos de prueba para un documento TC260 posterior, y la regulación de etiquetado de contenido de IA de septiembre de 2025 se publicó junto con un estándar nacional coordinado en la misma fecha.
Una propuesta de Hong Yanqing, un jurista y miembro del TC260, sugiere definir la "interacción emocional" a través de una prueba de tres partes: si el sistema tiene un reconocimiento activo de las emociones, si las emociones reconocidas influyen en la salida del sistema y si las respuestas siguen lo que Hong llama un "estilo empático estructurado". Según esta propuesta, una conversación que cumpla con al menos dos de los tres criterios entraría dentro del alcance del reglamento.
== Comparación internacional ==
En Estados Unidos, la SB-243 de California (firmada en octubre de 2025) y la ley complementaria de chatbots de Nueva York comparten algunos requisitos con el borrador chino, incluida la notificación obligatoria de que los usuarios están interactuando con IA y remisiones a recursos de prevención del suicidio. California exige un recordatorio de uso para los usuarios menores después de tres horas continuas de uso; el borrador chino requiere recordatorios para todos los usuarios después de dos horas.
Los modelos de aplicación de la ley difieren significativamente. California y Nueva York otorgan a las personas el derecho de demandar a las empresas que no cumplan, lo que impone en gran medida a las propias empresas la carga de determinar las salvaguardias adecuadas. En cambio, el borrador chino exige intervenciones técnicas específicas, cuyo cumplimiento es supervisado por la CAC y sus oficinas provinciales. El borrador chino también incluye disposiciones sin equivalente directo en los EE. UU., como la toma de control humana obligatoria durante las conversaciones de autolesión, la prohibición de simular a familiares de usuarios mayores y el requisito de participación voluntaria para usar datos de interacción en el entrenamiento.
== Ver también ==
* Medidas provisionales para la gestión de servicios de IA generativa
* Regulación de la inteligencia artificial
* Industria de la inteligencia artificial en China
* Compañero humano artificial
* Personaje.ai
Regulación de la inteligencia artificial
Leyes propuestas
Ley de la República Popular China
[h4] Las '''Medidas provisionales para la gestión de servicios interactivos de IA antropomórfica''' ( La regulación se dirige a compañeros de IA, humanos digitales, chatbots de rol y otros servicios de IA que imitan rasgos de personalidad humana, patrones de pensamiento y estilos de comunicación para participar en una interacción emocional con los usuarios. == Antecedentes == China ha regulado la adicción a Internet y a los juegos entre los jóvenes durante años, imponiendo límites al tiempo de juego de los menores, prohibiendo el uso de teléfonos en las escuelas y exigiendo a los proveedores de servicios móviles que admitan controles parentales. Aunque las Medidas Provisionales de 2023 para la Gestión de Servicios de IA Generativa abordaron la adicción a la IA, no especificaron cómo los proveedores deberían abordarla ni cómo se aplicaría la disposición. El borrador de IA antropomórfica es el primero en aplicar detalles requisitos anti-adicción a los servicios de IA específicamente.
El borrador también estuvo marcado por incidentes en el extranjero. En Estados Unidos, la madre de un niño de 14 años de Florida que se suicidó presentó una demanda por muerte por negligencia contra Character.ai y Google, alegando que la plataforma fomentaba un vínculo emocional poco saludable que contribuyó a su muerte; el caso se resolvió en enero de 2026. == Provisiones == El proyecto contiene 32 artículos divididos en cuatro capítulos: disposiciones generales, normas de servicio, supervisión y responsabilidad legal, y disposiciones complementarias.
=== Alcance === Las medidas se aplican a los productos y servicios de IA ofrecidos al público en China continental que simulan rasgos de personalidad humana, patrones de pensamiento y estilos de comunicación, y participan en una interacción emocional con los usuarios a través de texto, imágenes, audio o video. Si la regulación se aplica sólo a compañeros dedicados a la IA o a chatbots de uso general es una cuestión abierta. La definición podría abarcar a la mayoría de los chatbots de IA de cara al público, ya que pueden participar en una interacción emocional cuando se les solicita. El reglamento impone requisitos adicionales a los "servicios de compañía emocional" (情感陪伴服务), lo que sugiere que los chatbots generales y los servicios de compañía dedicados pueden recibir un trato diferente, pero este término no está definido en el borrador.
=== Adicción y dependencia === Los proveedores deben evaluar los estados emocionales de los usuarios y el nivel de dependencia del producto, e intervenir cuando los usuarios muestren emociones extremas o signos de adicción. Se debe notificar de manera destacada a los usuarios que están interactuando con IA en lugar de con un humano. Esta notificación debe repetirse cuando se detectan signos de dependencia excesiva y cuando los usuarios usan o vuelven a iniciar sesión en el servicio por primera vez. Si el uso continuo excede las dos horas, los proveedores deben mostrar un recordatorio emergente para tomar un descanso. Para los servicios de compañía emocional, los proveedores deben garantizar que los usuarios puedan salir de la interacción sin obstáculos y deben detener el servicio inmediatamente cuando un usuario lo solicite a través de un botón o palabra clave.
Los proveedores tienen prohibido diseñar servicios con el objetivo de reemplazar la interacción social, controlar la psicología del usuario o inducir adicción.
=== Intervenciones de autolesión === Los proveedores deben crear plantillas de respuestas para interacciones de alto riesgo que reconforten a los usuarios y los alienten a buscar ayuda profesional. Si un usuario expresa explícitamente su intención de suicidarse o autolesionarse, un operador humano debe hacerse cargo de la conversación y el proveedor debe comunicarse con el tutor o contacto de emergencia del usuario. Jeremy Daum, un experto en derecho que dirige China Law Translate, ha expresado su preocupación por la introducción de un ser humano en lo que el usuario entendía como un El intercambio confidencial podría ser contraproducente.
=== Datos de entrenamiento === El borrador requiere que los proveedores obtengan el consentimiento independiente de cada usuario antes de utilizar datos de interacción o información personal confidencial para la capacitación de modelos. Según los estándares chinos de protección de datos existentes, las empresas generalmente recopilan dichos datos de forma predeterminada y dan a los usuarios la opción de excluirse; el borrador revertiría esto a un modelo de participación voluntaria, que los comentaristas han descrito como una carga potencialmente significativa para la industria. Los usuarios también deben tener la opción de eliminar sus datos de interacción.
=== Protecciones para menores y ancianos === Los proveedores deben crear un "modo menor" con funciones que incluyan límites de tiempo de uso, recordatorios periódicos y la capacidad de que los tutores reciban alertas de seguridad, vean resúmenes de las interacciones del menor, bloqueen personajes específicos y eviten compras dentro de la aplicación. Los proveedores deben poder identificar a los menores y cambiar automáticamente al modo menor cuando se sospecha que un usuario es menor de edad, al mismo tiempo que proporcionan un canal de apelaciones. Para situaciones emocionales servicios de compañía, se requiere el consentimiento del tutor antes de que un menor pueda utilizar el servicio.
Los usuarios mayores deben registrar un tutor o contacto de emergencia. Los proveedores tienen prohibido ofrecer servicios que simulen a familiares o relaciones personales específicas de un usuario mayor.
=== Requisitos de contenido === La regulación prohíbe generar o difundir contenido que ponga en peligro la seguridad nacional, promueva la violencia o el crimen, difame a las personas o fomente la autolesión. Los proveedores también tienen prohibido utilizar manipulación algorítmica, información engañosa o "trampas emocionales" para inducir a los usuarios a tomar decisiones irracionales, o extraer información clasificada o sensible. Los datos de capacitación deben ajustarse a los "valores socialistas fundamentales". y reflejan la cultura tradicional china.
=== Evaluaciones de seguridad === Los proveedores deben someterse a evaluaciones de seguridad y presentar informes ante las oficinas CAC a nivel provincial cuando lanzan o agregan funciones interactivas antropomórficas, cuando alcanzan 1 millón de usuarios registrados o 100.000 usuarios activos mensuales, o cuando utilizan nuevas tecnologías que resultan en cambios importantes en el servicio. El borrador también introduce un mecanismo regulatorio de zona de pruebas para permitir pruebas controladas de nuevos servicios. == Papel de las normas técnicas == TC260 ha emitido una convocatoria para la presentación de una norma técnica que acompañe la regulación. La gobernanza de la IA china se ha basado cada vez más en este enfoque de dos niveles: las regulaciones establecen obligaciones amplias y los organismos de normalización luego especifican cómo las empresas deben cumplir en la práctica. Por ejemplo, la regulación de IA generativa de 2023 estableció requisitos generales, pero dejó los procedimientos de prueba para un documento TC260 posterior, y la regulación de etiquetado de contenido de IA de septiembre de 2025 se publicó junto con un estándar nacional coordinado en la misma fecha.
Una propuesta de Hong Yanqing, un jurista y miembro del TC260, sugiere definir la "interacción emocional" a través de una prueba de tres partes: si el sistema tiene un reconocimiento activo de las emociones, si las emociones reconocidas influyen en la salida del sistema y si las respuestas siguen lo que Hong llama un "estilo empático estructurado". Según esta propuesta, una conversación que cumpla con al menos dos de los tres criterios entraría dentro del alcance del reglamento.
== Comparación internacional == En Estados Unidos, la SB-243 de California (firmada en octubre de 2025) y la ley complementaria de chatbots de Nueva York comparten algunos requisitos con el borrador chino, incluida la notificación obligatoria de que los usuarios están interactuando con IA y remisiones a recursos de prevención del suicidio. California exige un recordatorio de uso para los usuarios menores después de tres horas continuas de uso; el borrador chino requiere recordatorios para todos los usuarios después de dos horas. Los modelos de aplicación de la ley difieren significativamente. California y Nueva York otorgan a las personas el derecho de demandar a las empresas que no cumplan, lo que impone en gran medida a las propias empresas la carga de determinar las salvaguardias adecuadas. En cambio, el borrador chino exige intervenciones técnicas específicas, cuyo cumplimiento es supervisado por la CAC y sus oficinas provinciales. El borrador chino también incluye disposiciones sin equivalente directo en los EE. UU., como la toma de control humana obligatoria durante las conversaciones de autolesión, la prohibición de simular a familiares de usuarios mayores y el requisito de participación voluntaria para usar datos de interacción en el entrenamiento.
== Ver también == * Medidas provisionales para la gestión de servicios de IA generativa * Regulación de la inteligencia artificial * Industria de la [url=viewtopic.php?t=15668]inteligencia artificial[/url] en China * Compañero humano artificial * Personaje.ai
Regulación de la inteligencia artificial Leyes propuestas Ley de la República Popular China [/h4]
More details: [url]https://en.wikipedia.org/wiki/Interim_Measures_for_the_Management_of_Anthropomorphic_AI_Interactive_Services[/url]
'''InvGate Service Management''' es una plataforma para la gestión de servicios de TI (ITSM) y la gestión de servicios empresariales (ESM) desarrollada por InvGate. Lanzado originalmente en 2011 con...
Esta página enumera las medidas electorales estatales en los Estados Unidos en 1968 en los Estados Unidos por estado. Se incluyen medidas ya sea que sean iniciadas por una legislatura estatal o por...
'''Markham Fire & Emergency Services''' es el principal proveedor de servicios de respuesta a emergencias y protección contra incendios en la ciudad de Markham, Ontario,...