Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Configuración de cookies
Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Descubra cómo las nuevas leyes de California sobre IA equilibran la innovación con la responsabilidad, cubriendo la privacidad, las falsificaciones profundas, la asistencia sanitaria, la educación y la seguridad.
Desde los coches autónomos hasta la atención sanitaria, las innovaciones en inteligencia artificial (IA) y las empresas tecnológicas de última generación están empezando a desempeñar un papel clave en la remodelación de nuestra vida cotidiana. En consecuencia, el tamaño del mercado mundial de la IA fue de 196.630 millones de dólares en 2023 y se espera que crezca una media del 36% anual de 2024 a 2030. Estas cifras demuestran lo rápido que está creciendo la IA.
Por un lado, el rápido desarrollo de la IA está creando soluciones a diversos problemas en distintos sectores. Por otro lado, esta velocidad pone de manifiesto la necesidad de un desarrollo responsable de la IA para garantizar que las mejoras sean éticas y beneficiosas para la sociedad.
Por ejemplo, en 2016, Microsoft lanzó un chatbot, Tay, en X (antes Twitter). Estaba diseñado para aprender de las conversaciones con los usuarios. Sin embargo, poco después de su lanzamiento, Tay empezó a generar respuestas con un lenguaje poco profesional al captar una serie de interacciones. Aunque Microsoft retiró rápidamente el bot de la red, es un buen ejemplo de la importancia de garantizar que los datos utilizados para el entrenamiento de IA sean fiables y que el público sea consciente de cómo las empresas están utilizando dichos datos para los productos de IA.
Fig. 1. Tay, el chatbot de Microsoft para Twitter.
En respuesta a esta preocupación, el gobernador de California , Gavin Newsom, firmó en septiembre más de una docena de proyectos de ley relacionados con la IA. Estas leyes abordan todos los aspectos, desde la divulgación de detalles sobre los datos de entrenamiento hasta el tratamiento de las falsificaciones. En este artículo, exploraremos las leyes de California sobre IA y lo que implican. Empecemos.
Legislación californiana sobre IA 2024: Garantizar la rendición de cuentas
Se promulgaron tres importantes proyectos de ley para contribuir a que el desarrollo de la IA sea más seguro y fiable. La Ley de la Asamblea (AB) 2013, que entrará en vigor en 2026, exige a los proveedores de IA generativa que publiquen detalles sobre sus conjuntos de datos de entrenamiento. Estos detalles incluyen las fuentes de los conjuntos de datos, detalles sobre cómo se utilizan los datos, el número de puntos de datos en el conjunto, si se incluyen datos con derechos de autor o con licencia, el período de tiempo en que se recogieron los datos, etc. Compartir esta información ayudará a las empresas de IA a generar confianza pública.
Otro proyecto de ley importante que se firmó fue el AB 1008. Amplía las leyes de privacidad vigentes en California a las soluciones de IA generativa. La AB 1008 se introdujo para abordar las preocupaciones y mejorar la confianza pública en la forma en que los sistemas de IA manejan la información personal. Una encuesta reveló que a más del 81% de los consumidores les preocupa que las empresas de IA puedan utilizar su información de forma no prevista. Al establecer límites claros sobre la forma en que las empresas pueden utilizar y beneficiarse de la información personal, como nombres, direcciones y datos biométricos, esta ley ayuda a las empresas de IA a tranquilizar a los usuarios en el sentido de que sus datos se manejarán de forma responsable, incluso si son expuestos por un sistema de IA.
Fig. 2. Infografía que muestra que muchas personas creen que las soluciones de IA pueden mejorar con respecto a la privacidad.
Adopción y regulación de la IA en los centros de enseñanza
Ya hemos analizado cómo la IA en la educación puede personalizar las experiencias de aprendizaje, redefinir las prácticas docentes, ofrecer información en tiempo real y ayudar a los educadores con herramientas y conocimientos avanzados. De hecho, las innovaciones de la IA pueden crear un entorno de estudio más eficaz y atractivo para los alumnos. Educadores y profesores de todo el mundo utilizan cada vez más la IA, con proyectos piloto de éxito e implantaciones más amplias en curso. Los estudios muestran que más del 50% de los profesores consideran que la IA en las aulas ha tenido un impacto positivo en el proceso de enseñanza y aprendizaje.
Fig. 3. Encuesta sobre la opinión de los profesores acerca del uso de la IA en las escuelas.
Además, el SB 1288 exige a los superintendentes de California que creen grupos de trabajo (el 1 de enero de 2026 o antes) para estudiar cómo se utiliza la IA en las escuelas públicas. Estos grupos de trabajo tendrán que presentar sus conclusiones y recomendaciones a los comités políticos y fiscales pertinentes de la Legislatura antes del 1 de enero de 2027. Una vez presentado el informe, el grupo de trabajo se disolverá y las disposiciones quedarán derogadas el 1 de enero de 2031.
Normativa en torno a la IA generativa en la sanidad
Fig. 4. Casos de uso de la IA generativa en sanidad.
La integración de la IA generativa en la atención sanitaria conlleva ciertas advertencias relacionadas con la privacidad de los datos y la normativa. Es crucial dar prioridad a la exactitud, fiabilidad e imparcialidad de los resultados generados por la IA y, al mismo tiempo, salvaguardar la privacidad de la información sanitaria.
Para hacer frente a estos retos, California ha aprobado dos leyes sobre el uso de la IA generativa en la asistencia sanitaria. La AB 3030 exige a los proveedores de servicios sanitarios que informen cuando utilicen IA generativa para comunicarse con un paciente, concretamente cuando esos mensajes contengan información clínica del paciente. El proyecto de ley SB 1120 pone limitaciones a la forma en que los proveedores de servicios sanitarios y las aseguradoras médicas pueden automatizar sus servicios. Estas nuevas leyes también garantizan que los médicos colegiados supervisen el uso de herramientas de IA en estos entornos.
Marcos reguladores de la IA en California para los deepfakes
El estado de California también ha aprobado leyes para frenar el uso de la IA en la difusión de información engañosa o inexacta. La ley SB 942 exige que los sistemas populares de IA generativa indiquen claramente en sus datos de origen que el contenido ha sido creado por IA. Muchas empresas de IA ya lo hacen, y existen varias herramientas gratuitas (ZeroGPT, Winston AI, GLTR, etc.) que pueden ayudar a la gente a leer estos datos de origen y detectar contenidos generados por IA.
En California se aprobaron tres nuevas leyes(AB 1831, SB 926, SB 981) para abordar cuestiones relacionadas con los deepfakes. Estas leyes amplían las protecciones existentes, tipifican como delito el uso indebido de contenidos generados por IA y obligan a las plataformas de redes sociales a crear canales de denuncia de contenidos deepfake. Las leyes entrarán en vigor en enero de 2025.
Leyes de California sobre la definición de IA y su uso en el cine
Uno de los proyectos de ley aprobados se centraba en dar una definición adecuada a la IA. El proyecto de ley AB 2885 establece que la IA se define como "un sistema de ingeniería o basado en máquinas que varía en su nivel de autonomía y que puede, por objetivos explícitos o implícitos, inferir de la entrada que recibe cómo generar salidas que pueden influir en entornos físicos o virtuales."
También se promulgaron dos leyes interesantes para la industria del entretenimiento. El mayor sindicato de actores de cine y televisión de Estados Unidos (SAG-AFTRA) desempeñó un papel crucial en la aprobación de estas leyes. La ley AB 2602 obliga a los estudios cinematográficos a obtener el permiso de un actor antes de utilizar la IA para crear una réplica de su voz y su imagen. Por su parte, la AB 1836 prohíbe a los estudios crear réplicas digitales de actores fallecidos (como el personaje de Peter Cushing en Star Wars: Rogue One) sin el consentimiento de sus herederos.
Fig. 5. El personaje, Grand Moff Tarkin, fue creado a imagen y semejanza del difunto actor Peter Cushing.
El factor impulsor de las leyes sobre IA de California
Al conocer cada una de estas leyes, puede que te hayas preguntado por qué son realmente necesarias. La regulación de la IA es un tema muy debatido desde hace tiempo, pero ha cobrado un gran impulso con el auge del deepfake content, que ha afectado a diversos ámbitos, como los medios de comunicación y la política. El uso de contenidos en línea generados por IA ha suscitado preocupación por la desinformación y su posible impacto en los resultados electorales, por ejemplo. También aumentan los temores sobre la privacidad y el uso indebido de los datos personales por parte de las innovaciones de la IA. Estos problemas han sido uno de los motivos por los que se han promulgado varias leyes para abordarlos.
Por ejemplo, el proyecto de ley AB 2905 obliga a los robocalls a revelar si son voces generadas por IA. Además, el proyecto de ley 2655 exige a las grandes plataformas en línea, como Facebook y X, que eliminen o etiqueten los deepfakes relacionados con las elecciones y creen canales de denuncia de esos contenidos. Los candidatos y los cargos electos también pueden solicitar medidas cautelares si las plataformas no cumplen.
Otra ley, AB 2839, se dirige a los usuarios de redes sociales que publican o reenvían deepfakes que podrían inducir a error a los votantes. Del mismo modo, la AB 2355 estipula la divulgación clara de los anuncios políticos realizados con herramientas de IA.
Claves de las nuevas leyes de California sobre IA
Las nuevas leyes sobre IA de California reflejan un creciente compromiso para equilibrar la innovación con la responsabilidad. Al abordar preocupaciones clave en áreas como la transparencia de datos, la privacidad, las falsificaciones profundas y el uso de la IA en la sanidad y la educación, estas leyes pretenden salvaguardar a las personas y a la sociedad al tiempo que promueven el desarrollo responsable de la IA. A medida que la IA siga evolucionando, estas normativas ayudarán a garantizar que su crecimiento vaya acompañado de prácticas éticas y de la confianza del público. Estas leyes también pueden animar a otras regiones del mundo a seguir su ejemplo.