California

California adelanta medidas de inteligencia artificial para aumentar la confianza pública en la tecnología

Los esfuerzos en California podrían allanar el camino para las regulaciones en todo el país.

Estados Unidos ya está detrás de Europa en la regulación de la inteligencia artificial para limitar los riesgos, dicen legisladores y expertos, y la tecnología en rápido crecimiento está generando preocupaciones sobre la pérdida de empleos, la desinformación, las invasiones de la privacidad y el sesgo de la automatización. (Foto de archivo)
Shutterstock

SACRAMENTO, California - A medida que las corporaciones incorporan cada vez más tecnologías de inteligencia artificial a la vida cotidiana de los estadounidenses, los legisladores de California quieren generar confianza pública, luchar contra la discriminación algorítmica y prohibir los "deepfakes" que involucren elecciones o pornografía.

Los esfuerzos en California (hogar de muchas de las empresas de inteligencia artificial más grandes del mundo) podrían allanar el camino para las regulaciones en todo el país.

Estados Unidos ya está detrás de Europa en la regulación de la inteligencia artificial para limitar los riesgos, dicen legisladores y expertos, y la tecnología en rápido crecimiento está generando preocupaciones sobre la pérdida de empleos, la desinformación, las invasiones de la privacidad y el sesgo de la automatización.

La semana pasada se presentaron una serie de propuestas destinadas a abordar esas preocupaciones, pero deben obtener la aprobación de ambas cámaras legislativas antes de llegar al escritorio del gobernador Gavin Newsom.

El gobernador demócrata ha promovido a California como uno de los primeros en adoptar y también como regulador, diciendo que el estado pronto podría implementar herramientas de inteligencia artificial generativa para abordar la congestión de las carreteras, hacer que las vías sean más seguras y brindar orientación fiscal.

Esto, incluso cuando su gobierno considera nuevas reglas contra la discriminación por inteligencia artificial en las prácticas de contratación.

Con fuertes leyes de privacidad ya vigentes, California está en mejor posición para promulgar regulaciones impactantes que otros estados con grandes intereses en inteligencia artificial, como Nueva York, dijo Tatiana Rice, subdirectora del Future of Privacy Forum, una organización sin fines de lucro que trabaja con legisladores sobre propuestas de tecnología y privacidad.

"Se necesita una ley de privacidad de datos para poder aprobar una ley de inteligencia artificial", indicó Rice. "Todavía estamos prestando atención a lo que está haciendo Nueva York, pero yo apostaría más por California", agregó.

Los legisladores de California dijeron que no pueden esperar para actuar, debido a las duras lecciones que aprendieron al no controlar las empresas de redes sociales cuando pudieron haber tenido una oportunidad. Pero también quieren seguir atrayendo empresas de inteligencia artificial al estado.

Aquí un vistazo más de cerca a las propuestas de California:

LUCHAR CONTRA LA DISCRIMINACIÓN POR INTELIGENCIA ARTIFICIAL Y FOMENTAR LA CONFIANZA PÚBLICA

Algunas empresas, incluidos los hospitales, ya utilizan modelos de inteligencia artificial para definir decisiones sobre contratación, vivienda y opciones médicas para millones de estadounidenses sin mucha supervisión. Según la Comisión de Igualdad de Oportunidades en el Empleo de Estados Unidos, hasta el 83% de los empleadores utilizan la inteligencia artificial para ayudar en la contratación. Cómo funcionan esos algoritmos sigue siendo en gran medida un misterio.

Una de las medidas de inteligencia artificial más ambiciosas adoptadas en California este año abriría el telón de estos modelos al establecer un marco de supervisión para evitar prejuicios y discriminación. Requeriría que las empresas que utilizan herramientas de inteligencia artificial participen en las decisiones que determinan los resultados e informen a las personas afectadas cuando se utiliza la tecnología. Los desarrolladores de inteligencia artificial tendrían que realizar evaluaciones internas de forma rutinaria de sus modelos para detectar sesgos. Y el fiscal general del estado tendría autoridad para investigar informes sobre modelos discriminatorios e imponer multas de $10,000 por infracción.

Es posible que pronto también se requiera que las empresas de inteligencia artificial comiencen a revelar qué datos están utilizando para entrenar sus modelos.

PROTECCIÓN DEL EMPLEO Y LA IMAGEN

Inspirado por la huelga de actores de Hollywood que duró meses el año pasado, un legislador de California quiere proteger a los trabajadores de ser reemplazados por sus clones generados por inteligencia artificial, un importante punto de discordia en las negociaciones contractuales.

La propuesta, respaldada por la Federación Laboral de California, permitiría a los artistas cancelar contratos existentes si un lenguaje vago permitiera a los estudios utilizar libremente la inteligencia artificial para clonar digitalmente sus voces e imagen. También requeriría que los intérpretes estén representados por un abogado o representante sindical al firmar nuevos contratos de "voz y semejanza".

California también puede imponer sanciones por clonar digitalmente a personas muertas sin el consentimiento de sus herederos. Esto se basa en el caso de una empresa de medios que produjo un especial de comedia falso de una hora de duración generado por inteligencia artificial para recrear el estilo y el material del difunto comediante George Carlin sin el permiso de su sucesión.

REGULACIÓN DE POTENTES SISTEMAS DE INTELIGENCIA ARTIFICIAL GENERATIVA

Los riesgos del mundo real abundan a medida que la inteligencia artificial generativa crea contenido nuevo, como texto, audio y fotografías, en respuesta a indicaciones. Por eso, los legisladores están considerando exigir barreras protectoras alrededor de sistemas de inteligencia artificial "extremadamente grandes" que tienen el potencial de escupir instrucciones para crear desastres (como construir armas químicas o ayudar en ataques cibernéticos) que podrían causar daños por al menos $500 millones. Se requeriría que dichos modelos tuvieran un "interruptor de apagado" incorporado, entre otras cosas.

La medida, respaldada por algunos de los investigadores de inteligencia artificial más renombrados, también crearía una nueva agencia estatal para supervisar a los desarrolladores y proporcionar mejores prácticas, incluso para modelos aún más potentes que todavía no existen. El fiscal general del estado también podría emprender acciones legales en caso de violaciones.

PROHIBICIÓN DE "DEEPFAKES" QUE INVOLUCREN POLÍTICA O PORNOGRAFÍA

Una coalición bipartidista busca facilitar el procesamiento de personas que utilizan herramientas de inteligencia artificial para crear imágenes de abuso sexual infantil. La ley actual no permite que los fiscales de distrito procesen a las personas que poseen o distribuyen imágenes de abuso sexual infantil generadas por inteligencia artificial si los materiales no representan a una persona real, dijeron las autoridades.

Un grupo de legisladores demócratas también respalda un proyecto de ley que aborda las falsificaciones electorales, por preocupaciones después de que llamadas automáticas generadas por inteligencia artificial imitaran la voz del presidente Joe Biden antes de las recientes primarias presidenciales de New Hampshire.

La propuesta prohibiría los "'deepfakes' materialmente engañosos" relacionados con las elecciones en correos políticos, llamadas automáticas y anuncios de televisión 120 días antes y 60 después de los comicios. Otra propuesta requeriría que las plataformas de redes sociales etiqueten cualquier publicación relacionada con las elecciones creada por inteligencia artificial.

Contáctanos