contacto@arca.news 

Los lobbystas que dictan la política de IA e influyen en el futuro de la tecnología

La IA generativa, conocida por su capacidad para producir texto, imágenes y vídeos a partir de indicaciones abiertas, ha sido una fuente de entusiasmo y preocupación en los últimos tiempos. Se teme que pueda reemplazar empleos, perturbar elecciones e incluso superar el control humano, lo que conduciría a resultados catastróficos.

En caso de que alguien pensara que la administración Biden jugó un papel clave en la reciente y controvertida orden ejecutiva sobre la IA, los informes ahora buscan disuadirlos de que ese podría ser el caso.

Los lobbystas que dictan la política de IA e influyen en el futuro de la tecnología

Los lobbystas que dictan la política de IA e influyen en el futuro de la tecnología

No es difícil imaginar que el impulso para el orden provenga del exterior, es decir, de las grandes empresas tecnológicas, lo que solo confirmaría aún más su relación simbiótica con la Casa Blanca.

Pero ¿fue ese actor clave: la “ideología” del altruismo efectivo?

Un informe ahora afirma que este papel estaba reservado para RAND Corporation, que a su vez tiene una “relación monetaria” con las Big Tech; es decir, el grupo de expertos recibió unos 15 millones de dólares en subvenciones de Open Philanthropy.

Y aunque el artículo de Politico inicialmente se esfuerza por asegurarse de que usted sepa que Dustin Moskovitz es cofundador de Facebook, el punto de la historia es en realidad que también es cofundador y financiador de Open Philanthropy.

Volviendo a Politico, el sitio web basa sus informes en declaraciones de “un investigador de IA con conocimiento de la redacción de la orden (ejecutiva)” y también en “una grabación de una reunión interna de RAND” que el medio dice haber visto.

Ahora Politico también ve similitudes entre la orden ejecutiva de gran alcance, que introduce informes para los sistemas de inteligencia artificial más grandes, y las prioridades de la filantropía abierta en este sector.

El artículo es una especie de desastre: busca desacreditar un tipo de narrativa creada por el tipo de medio de comunicación al que pertenece Politico (advertencias sobre la IA apoderándose del mundo), al tiempo que promueve otra forma de miedo asociada con la IA, a saber, que promueve “prejuicio racial” y “socava la protección de los derechos de autor”.

Politico claramente lo desaprueba y advierte que esta actitud no es compartida por las principales empresas de IA de la actualidad, y trata la conexión RAND-Open Philanthropy-subvenciones como una advertencia.

Con todo, el problema para Politico no parece ser que, como dice el título, “un grupo de expertos vinculado a multimillonarios tecnológicos jugó un papel clave en el orden de IA de Biden”, algo que es claramente alarmante cuando se trata del poder que tendrá la IA. Lo que tenemos en el futuro es que se trataba del tipo “equivocado” de multimillonarios.

La administración Biden anunció su iniciativa de desarrollar estándares y directrices cruciales para el uso seguro de la inteligencia artificial generativa. Esta medida es parte de un esfuerzo más amplio para abordar los desafíos que plantea la IA en diversos ámbitos, incluidas las pruebas y la seguridad del sistema.

Esta iniciativa, encabezada por el Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio, está actualmente abierta para recibir comentarios del público hasta el 2 de febrero. El objetivo es recopilar información para procesos de prueba críticos esenciales para la seguridad del sistema de IA.

De acuerdo con la orden ejecutiva del presidente Joe Biden emitida en octubre sobre la IA, la secretaria de Comercio, Gina Raimondo, enfatizó la importancia de establecer estándares industriales en materia de seguridad y confianza de la IA. Estos estándares se promueven como una forma de mantener el liderazgo de Estados Unidos en el desarrollo y utilización responsable de esta tecnología que avanza rápidamente.

El proyecto actual del NIST implica formular directrices para la evaluación de la IA, desarrollar estándares y proporcionar entornos de prueba para evaluar los sistemas de IA. Buscan específicamente contribuciones de las empresas de IA y del público en general con respecto a la gestión de los riesgos generativos de la IA y la mitigación de la información errónea generada por la IA.

La IA generativa, conocida por su capacidad para producir texto, imágenes y vídeos a partir de indicaciones abiertas, ha sido una fuente de entusiasmo y preocupación en los últimos tiempos. Se teme que pueda reemplazar empleos, perturbar elecciones e incluso superar el control humano, lo que conduciría a resultados catastróficos.

Pero quien controle la IA también tendrá control sobre muchos aspectos de la sociedad.

La orden ejecutiva de Biden también exige a las agencias que establezcan estándares para tales pruebas considerando los riesgos asociados en los dominios químico, biológico, radiológico, nuclear y de ciberseguridad, lo que ahora se ha expandido a la idea de vigilar la “desinformación”.

Entonces ¿quién y qué decidirá qué es y qué no es “desinformación”?

Los esfuerzos del NIST incluyen establecer pautas para métodos de prueba efectivos, como el uso de “equipos rojos”, una práctica utilizada tradicionalmente en ciberseguridad para identificar riesgos emergentes. El equipo rojo implica simular acciones enemigas, un concepto que se remonta a las prácticas de la Guerra Fría de Estados Unidos.

En agosto, una importante conferencia sobre ciberseguridad acogió la primera evaluación pública del “equipo rojo” en Estados Unidos, organizada por AI Village, SeedAI y Humane Intelligence. Durante este evento, miles de participantes probaron sistemas de inteligencia artificial para provocar fallas o resultados no deseados. Este ejercicio tuvo como objetivo profundizar la comprensión de los riesgos asociados con estos sistemas.

La Casa Blanca reconoció este evento como una demostración de cómo los equipos rojos externos pueden servir como un método eficaz para identificar nuevos riesgos de IA.

La creciente influencia de las grandes empresas tecnológicas y los cabilderos en la configuración de la legislación sobre IA ha generado preocupaciones críticas. Esta influencia, si bien es una intersección natural entre la experiencia de la industria y la formulación de políticas, alberga peligros potenciales que podrían conducir a la censura y la solidificación de los actores dominantes en la industria de la IA, sofocando así la innovación y la competencia.

1. La convergencia de intereses: el papel de las grandes tecnologías en la formulación de políticas de IA

Las grandes empresas tecnológicas, con sus vastos recursos y su profunda participación en el desarrollo de la IA, son partes interesadas naturales en el proceso legislativo en torno a la IA. Sus aportes son valiosos para lograr regulaciones realistas e informadas. Sin embargo, esta participación a menudo se inclina hacia servir los intereses corporativos por encima del bienestar público. Los esfuerzos de lobby de estas empresas pueden conducir a la creación de regulaciones que protejan principalmente su posición e intereses en el mercado, en lugar de fomentar un ecosistema equilibrado para el desarrollo y uso de la IA.

2. La preocupación por la censura: cómo la legislación podría limitar las libertades de la IA

Una de las preocupaciones más apremiantes es la posibilidad de que la legislación sobre IA se utilice como herramienta de censura. Las regulaciones influenciadas por las Big Tech podrían diseñarse para limitar las capacidades de la IA de manera que se alineen con los intereses de estas empresas. Por ejemplo, las restricciones al contenido generado por IA podrían aprovecharse para suprimir la competencia o las voces disidentes, con el pretexto de prevenir la información errónea o proteger la propiedad intelectual.

3. Cimentar a los gigantes: el riesgo de prácticas anticompetitivas

Otro riesgo importante es la posibilidad de que la legislación consolide el dominio de los actores establecidos. Las grandes empresas tecnológicas, a través de sus esfuerzos de lobby, podrían dar forma a las leyes de manera que eleven barreras para los nuevos participantes y los competidores más pequeños. Esto podría incluir impulsar requisitos de cumplimiento estrictos que sólo las empresas grandes y ricas en recursos pueden cumplir, o influir en el desarrollo de estándares y protocolos que favorezcan las tecnologías y plataformas existentes.

4. El dilema de la innovación: equilibrar la regulación y el crecimiento

Si bien la regulación es crucial para garantizar el desarrollo ético y seguro de la IA, existe una delgada línea entre la gobernanza responsable y el control asfixiante. La sobrerregulación, impulsada por los intereses de unos pocos, podría obstaculizar la innovación en el campo de la IA. Esto no sólo frenaría el avance tecnológico, sino que también limitaría los posibles beneficios sociales que podría ofrecer una industria de IA competitiva.

Quien controle la inteligencia artificial tiene una influencia significativa sobre diversos aspectos de la sociedad, incluido el potencial de moldear o restringir el flujo de información, lo que lleva a la censura. La capacidad de la IA para analizar y procesar grandes cantidades de datos le permite monitorear y filtrar contenido en plataformas digitales.

En el ámbito de los medios y la comunicación, la IA se puede emplear para seleccionar contenido personalizado que, si bien es beneficioso para la publicidad dirigida y la experiencia del usuario, también se puede utilizar para suprimir o promover selectivamente cierta información, influyendo así en la opinión pública y las normas sociales.

Además, el papel de la IA en el gobierno y los sistemas de vigilancia puede extenderse al control de la difusión de información, lo que podría conducir a la censura en nombre de la seguridad nacional o el orden público. Esto podría tener profundas implicaciones para la libertad de expresión, ya que los sistemas impulsados ​​por IA podrían usarse para detectar y suprimir automáticamente voces disidentes o puntos de vista alternativos.

El poder de censurar o dar forma a la narrativa a través de la IA podría ser una herramienta para mantener el poder político o reprimir la oposición, lo que hace que la supervisión de la IA en esas áreas sea un asunto de gran importancia y que pasará a primer plano a medida que nos acerquemos a 2024.

Arca.News

Fuente: reclaimthenet.org / Didi Rankovic

Artículos relacionados

ChatGPT es un sistema de chat con inteligencia artificial, desarrollado por la empresa OpenAI ChatGPT: qué es, para

360 diputados de la Cámara de Representantes de EE. UU. votaron a favor de la legislación que podría

La NSA “está a solo a unos días de apoderarse de Internet”, advierte Ed Snowden En una publicación

Actualmente, el gobierno de Estados Unidos se encuentra investigando a ByteDance por utilizar datos de geolocalización de TikTok