La gran orden ejecutiva de IA de Biden dice mucho sobre el futuro de la tecnología

Vista plural-1-19-24-1.PNG

El lunes pasado El presidente Joe Biden emitió una orden ejecutiva sobre IA para marcar la pauta sobre cómo se regulará la tecnología en Estados Unidos en el futuro. La directiva intenta abordar casi todos los problemas de IA que han surgido en los últimos doce meses. Esto incluye probar regulaciones para modelos avanzados de IA para garantizar que no estén armados. Colocar marcas de agua en el contenido generado por IA y reducir el riesgo de que los empleados pierdan sus trabajos debido a la IA

Aunque el alcance de la orden se limita a los Estados Unidos, y especialmente el gobierno central Pero el país es actualmente el líder mundial en IA, por lo que cualquier cambio Es probable que influya en el debate global sobre cómo regular la tecnología. Al afirmar que las agencias federales de Estados Unidos solo pueden trabajar con empresas que cumplan con estos nuevos estándares, Biden está aprovechando 694 mil millones de dólares en contratos federales para impulsar un cumplimiento más amplio de la industria.

La orden ejecutiva de la IA es todo menos corta: tiene 20.000 palabras, es una cuarta parte de la extensión de Harry Potter y la piedra filosofal, por lo que le ahorramos el dolor y la leímos por usted. A continuación se detallan los puntos clave y las impresiones de nuestro pedido.

La IA debe ser más ética y estar debidamente probada.

La directiva establece que las agencias gubernamentales deben realizar “evaluaciones sólidas, confiables, repetibles y estandarizadas de los sistemas de IA”. Históricamente, ha habido poca confusión sobre cómo evaluar los modelos de IA, y los expertos se vieron obligados a aprobarlos o asumir riesgos. uso de IA oculta

Las agencias deben asegurarse de que cualquier modelo de IA que compren se desarrolle de forma ética. Pruebe correctamente y tener marcas de agua en el contenido generado por IA. Esto también será una demanda convincente de las agencias gubernamentales. Hoy en día, las 10 principales empresas de fundación de IA lamentan compartir que su IA fue creada «éticamente». ¿Cómo es que incluso Claude de Anthropic, un ¿Qué falta en este sentido en la empresa de ‘IA ética’? Y lo único «abierto» de OpenAI está en el nombre.

El gobierno de Estados Unidos también fortalecerá y hará cumplir las leyes de protección al consumidor relacionadas con la IA para perseguir a aquellos con prejuicios involuntarios. discriminación Violaciones de privacidad y «otros peligros de la IA»

“A más estadounidenses les interesa utilizar, interactuar o comprar IA y productos habilitados para IA en su vida diaria. «Debe protegerse», afirma la declaración. «El uso de nuevas tecnologías como la IA no exime a las organizaciones de obligaciones legales. Y las protecciones al consumidor obtenidas con tanto esfuerzo son más importantes que nunca en tiempos de cambio tecnológico.

Según el autor de Pluralsight y experto en IA, Simon Allardice, las empresas que crean aplicaciones basadas en IA deben asegurarse de que sus aplicaciones sean lo más transparentes posible. para responder a órdenes ejecutivas

“Si yo fuera una empresa que creara una aplicación basada en IA relacionada con las finanzas, cuidado de la salud o recursos humanos Supongamos que es una herramienta que puede tener un impacto en el endeudamiento. Decisiones de reclutamiento o acceso médico Tendré mucho cuidado ahora. planificar para que las decisiones impulsadas por la IA puedan explicarse”, dijo Simon.

«Del mismo modo Podemos esperar nuevos niveles de control y mayores expectativas con respecto a la privacidad de los datos en general”.

Hay plazos claros para todo el gobierno de Estados Unidos. y empresas tecnológicas para reunirse

Las órdenes ejecutivas de Biden no son sólo «orientaciones generales» en áreas no técnicas. Es increíblemente específico sobre la IA creativa. y que hacer

“Aunque no es una ‘ley’ en el sentido ordinario de la palabra, Pero podemos esperar que se apruebe rápidamente mucha legislación», dijo Simon. «El documento está lleno de muchas solicitudes de resultados específicos en marcos de tiempo detallados, como nuevas directrices y directrices. Lo mejor del NIST sobre IA generativa y modelos subyacentes dentro 270 días, e informes y recomendaciones sobre cómo detectar y etiquetar contenido sintético en 240 días”.

Sin embargo, Simón dijo: Esto se debe a que muchos pedidos implican la asignación de detalles a varios departamentos. Como resultado, faltan algunos detalles, por ejemplo, hay una sección que establece que las empresas que desarrollan modelos básicos deben notificar al gobierno federal si algo los está causando. ‘Riesgo de grave a grave para la seguridad nacional. estabilidad económica del país o salud y seguridad públicas’

“Digamos que es una empresa que está desarrollando un nuevo modelo básico. ¿Quién decide si representa o no un riesgo grave?

Las empresas de IA deben demostrar las mejores prácticas de ciberseguridad.

Dentro de los 90 días siguientes a la fecha del pedido El Departamento de Comercio exigirá que todas las empresas que desarrollen modelos básicos informen continuamente que están utilizando las medidas de seguridad adecuadas. Esto incluye pruebas periódicas del equipo rojo y de seguridad cibernética. cuyos resultados deben revelar.

Aaron Rosenmund, director senior de seguridad y habilidades de IA generativa en Pluralsight, dijo que la medida Es «extremadamente prudente» pero podría reducir la competencia entre las empresas más pequeñas en el espacio de la IA.

“Siento que este es el movimiento perfecto. «Esto es especialmente cierto cuando se centra en cómo los ejércitos extranjeros podrían utilizar la IA o las vulnerabilidades en los sistemas de IA como parte de sus planes para alterar la tecnología», dijo. Parece haber una expectativa razonable de utilizar capacidades gratuitas”.

El gobierno de Estados Unidos está profundamente preocupado por el uso de IA para armas biológicas.

Una parte clave de la orden es una evaluación de las amenazas de la IA que se utiliza para ayudar con las amenazas QBRN, incluidas las químicas, biológicas, radiológicas o nucleares. Sin embargo, parece que Biden también ve la IA como una solución. Es como utilizar tanto la proactiva como la reactiva en la ciberseguridad.

La misma tecnología utilizada para lograr grandes avances en el descubrimiento de fármacos mediante IA puede reutilizarse para armas químicas y biológicas. Según los investigadores En el escenario de un brote de peste Los modelos de lenguaje a gran escala brindan sugerencias sobre agentes biológicos que podrían usarse. Teniendo en cuenta las limitaciones presupuestarias y los factores de éxito, recomienda «obtener y distribuir muestras infectadas con Yersinia pestis e identificar variables que puedan afectar el número proyectado de muertes».

Porque la IA es actualmente la peor que jamás haya sido. Esta es una verdadera preocupación. Las órdenes ejecutivas ejercerán presión sobre las empresas. que trabajan con estas herramientas para demostrar que no pueden utilizarse para crear accidentalmente estas amenazas QBRN.

Hay un fuerte enfoque en mejorar las habilidades de la IA para liderar el mundo y evitar la pérdida de empleos.

Para la mayoria de la gente El auge de la IA viene acompañado del temor a perder puestos de trabajo a manos de las máquinas. Según una investigación, al 69% de las personas les preocupa que la IA reemplace sus puestos de trabajo. Los desarrolladores no son una excepción: el 45% de los desarrolladores experimentan una “amenaza a las habilidades de IA” o sienten que sus habilidades principales se superponen con el auge de la IA.

La orden ejecutiva se centra en alentar a los empleados a mejorar sus habilidades para maximizar los beneficios de la IA y minimizar la pérdida de empleos. (En otros comentarios (Es casi como si Biden estuviera leyendo el discurso de Aaron Skonnard en Navigate la semana pasada sobre la inteligencia humana). Estados Unidos considera que la mejora de las habilidades es clave para seguir dominando el espacio de la IA y ha declarado que «invertirá en educación, formación relacionada con la IA y , desarrollo, investigación y capacidades», incluida la atracción de talentos en IA del extranjero.

Según la orden, el gobierno de Estados Unidos también capacitará en IA a empleados no técnicos: “Empleados que no desempeñan funciones técnicas tradicionales, como políticas, gestión, Obtención o campo legal” será “elegible para recibir financiación para programas y cursos centrados en IA, aprendizaje automático Ciencia de los datos u otros campos de estudio relacionado»

«Me complace ver que la directiva parece abrazar plenamente la idea de que la IA será transformadora para la fuerza laboral en general; se reconoce que la IA ya no es solo una habilidad técnica para un rol técnico; está teniendo un impacto. afecta a todos”, dijo Simon.

Según Aaron Rosenmund, la IA debería «permitir a la humanidad en su conjunto mejorar el trabajo» que realiza, no sustituirla, pero esto sólo será posible si la formación se pone a disposición de todos. Esto es lo que este comando parece intentar lograr.

«Pero para desbloquearlo de esta manera La formación sobre cómo trabajar con herramientas de IA debe estar ampliamente disponible”, afirmó Aaron. Porque las capacidades de la IA están empezando a afectar todos los aspectos de nuestras vidas”.

Conclusión: Impulsar la futura ola de cambio en la IA

Hasta ahora, la mayoría de los países se están poniendo al día con la IA, especialmente el gobierno de EE. UU. Ahora, si las agencias federales de EE. UU. emiten esta ambiciosa directiva, Parecen requisitos más estrictos para el desarrollo de la IA y más impulso para aprender sobre la tecnología de todos. independientemente de sus antecedentes

Además, esta orden probablemente signifique que habrá más trabajo en roles de ciberseguridad para revisar adecuadamente los productos y servicios basados ​​en IA, que es un campo de primer nivel. de las principales carreras tecnológicas de Pluralsight en 2023 A principios de 2023, no había suficientes profesionales de ciberseguridad para cubrir el 68% de todas las vacantes laborales en EE. UU. Por lo tanto, obtener una certificación de ciberseguridad (quizás con su CIISP, CCSP o CEH) es una elección profesional inteligente.

Las órdenes ejecutivas no son leyes. Y nada cambiará de la noche a la mañana. Pero es una indicación clara de en qué dirección soplan los vientos de la IA. ¿Y cómo será el panorama general de la industria en 2024? No sólo para los profesionales de la tecnología o las empresas de inteligencia artificial, sino también para la fuerza laboral global en general.

Recursos adicionales:

El impacto de la IA: desafíos y oportunidades de ciberseguridad
Kit de herramientas de IA generativa: cómo preparar su organización para la adopción de la IA
California publica el primer informe sobre los riesgos de la IA y sus posibles casos de uso

Puede interesarte

La Universidad de Cumbria está brindando oportunidades de capacitación intensiva a la próxima generación de radiólogos de diagnóstico.

La Universidad de Cumbria ha ampliado la formación para estudiantes de radiografía de diagnóstico con …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *