Gracias queridos miembros. Estamos abrumados por su respuesta.
Your Turn es una sección especial de ThePrint que presenta opiniones de miembros. Si es miembro y tiene opiniones, envíenoslas. Si no, regístrate aquí: https://theprint.in/
India, como superpotencia, necesita un marco regulatorio combinado de inteligencia artificial y seguridad cibernética como próximo paso adelante para ayudar a dar un salto adelante y liderar el mundo.
Mostrar artículo completo
“Elegimos ir a la luna esta década y hacer otras cosas. No porque sea fácil. Pero porque es difícil Porque las metas sirven para organizar y medir nuestras mejores energías y habilidades. Porque ese desafío es algo que estamos dispuestos a aceptar. Algo que no queremos posponer. y lo que pretendemos ganar y otros desafíos también.” – Presidente JFK
15 de agosto de 2023 Día de la Independencia de la India. ¡Se conmemora como el día en memoria del primer alunizaje del mundo en el Polo Sur!
Es hora de dar el siguiente paso adelante en IA: Inteligencia Artificial, ML: Aprendizaje Automático. y ciberseguridad!
A medida que India emerge como una superpotencia, necesitará un marco regulatorio combinado de inteligencia artificial y seguridad cibernética para superar al mundo.
En su discurso en la Cumbre de Cooperación Global en Inteligencia Artificial (GPAI) en Nueva Delhi. En diciembre de 2023, el primer ministro Modi dijo que la India está comprometida a utilizar la tecnología de manera responsable y ética.
Según McKinsey and Co., los mayores beneficios económicos posibles de la IA son Puede aumentar enormemente la productividad.Estiman que la IA podría añadir 10 billones de dólares al PIB de Estados Unidos para 2030, y eso es sólo dentro de Estados Unidos. McKinsey and Co. también lo han predicho. El cibercrimen cuesta 10,5 billones de dólares al año en todo el mundo.. ¿Puede un marco regulatorio de IA con gestión de riesgos de ciberseguridad ayudar con ambos?
Como vimos en el artículo de The Diplomat titulado “Resolviendo el dilema regulatorio de la IA en la India” del 4 de noviembre de 2023, se han propuesto dos enfoques. Esa es la pauta. Enfoque “innovador” para el desarrollo de aplicaciones de IA, similar al del Reino Unido y EE. UU. ¿O debería la India adoptar una política? ¿»Basado en riesgos» como propone la UE? ¿Por qué no los dos?
Las directrices de la UE son una estrategia que clasifica los productos de IA en diferentes categorías. y evaluar los peligros potenciales de los posibles productos de IA. Según la determinación de precauciones necesarias
La estrategia de «control estatal» de China sobre la regulación de la IA es siniestra. Teniendo en cuenta cómo convierten los virus en armas, tanto biológica como cibernética
India debería adoptar una política ¿Es “específico de una industria” como Estados Unidos? Invirtiendo en nuevas empresas con protección de patente Respuesta: Énfasis ¡Sí!
¿cómo?
El Instituto Nacional de Estándares y Tecnología (NIST), del Departamento de Comercio de EE. UU., lanzó la primera versión de AI RMF 1.0, un nuevo marco de gestión de riesgos de IA (consulte la Figura 1).
¿Qué podemos aprender de la gestión de riesgos ISO 27005 en ciberseguridad?
El estándar de gestión de riesgos ISO 27005 es parte de un conjunto de estándares para la gestión de la seguridad de la información (Figura 2).
Para lograr un marco de gestión de riesgos de ciberseguridad para la IA, consulte la Figura 4 para ver las integraciones recomendadas con AI/ML.
Tener información precisa es importante. La mayoría de los algoritmos de aprendizaje automático requieren que los datos estén en un formato específico. Un Enterprise Data Warehouse (EDW) es una colección de bases de datos que almacenan datos de todas las áreas de una empresa. y puede ser un lago de datos con audio, video y datos no estructurados. y datos estructurados o combinación de dicha información Y como los datos suelen utilizarse y actualizarse de forma transaccional en tiempo real, estas fuentes de datos deben ser seguras y privadas. Especialmente con RBAC: control de acceso basado en roles
La esencia es MLOps arriba, donde CI/CD es un término de ingeniería de software para integración y entrega continuas. Porque el sistema «mejora» y «aprende» continuamente. ¡Si bien la inspección y supervisión son funciones esenciales para el cumplimiento!
Algunas de las capacidades clave requeridas para Holistic AI y su plataforma de gobernanza y gestión de riesgos de ciberseguridad incluyen:
– Crear plantillas recomendadas específicas de la industria Ayude a los equipos a iniciar el análisis de riesgos de inmediato
– Permite a los usuarios priorizar los riesgos según la probabilidad de que ocurran y su gravedad.
– Crear una matriz de riesgos en pantalla en función de la probabilidad y gravedad del riesgo.
– Ofrece integraciones con múltiples herramientas de seguridad para brindar visibilidad de las vulnerabilidades de seguridad, así como de las vulnerabilidades de AI/ML, como el sesgo.
– Proporcione visibilidad completa de las amenazas u oportunidades de riesgo a través de informes y paneles en tiempo real.
– Permite definir y mantener la trazabilidad inmediata durante el diseño de los requisitos del proceso AI/ML. Riesgo y peligro
Conclusión
India puede liderar el camino con un marco regulatorio para proyectos y productos de IA/ML y debería explorar cómo el último marco de gestión de riesgos de IA del NIST se integra dentro de una plataforma holística de ciberseguridad.
¡Desde el aterrizaje en la luna nueva hasta un nuevo año y un nuevo orden mundial! ¡Vamos!
Gracias… Akshay Sharma
Biografía: Akshay Sharma es ingeniero informático. Ex analista de tecnología de Gartner, autor de más de 280 notas de investigación sobre tecnologías emergentes como ciberseguridad, 5G e IoT, es consultor de ciberseguridad y director de tecnología de una empresa de software con sede en Calcuta. con clientes como el Banco Mundial, DRDO de la India y clientes de defensa de EE. UU. Recientemente fue nombrado evangelista jefe de tecnología para la startup de IA/ML Accure.AI. |
Estos trabajos se publican tal como se recibieron; ThePrint no los ha editado ni verificado.