China advierte sobre la IA: podría producir armas de destrucción masiva

En la evaluación de riesgos sobre tecnologías de inteligencia artificial, publicada recientemente por China , se advirtió que grupos extremistas y organizaciones terroristas podrían utilizar la inteligencia artificial para producir armas de destrucción masiva. El Comité Técnico Nacional de Normalización de Ciberseguridad y el Equipo Técnico de Respuesta a Emergencias de la Red Nacional de Computadoras de China publicaron la versión actualizada del "Documento Marco de Gestión de Seguridad de la Inteligencia Artificial ". El documento, que enfatiza que las capacidades de procesamiento de información en desarrollo que ofrece la tecnología de inteligencia artificial podrían brindar incluso a la gente común la oportunidad de aprender a fabricar armas destructivas, señaló los riesgos de perder el control sobre el conocimiento y las capacidades relacionadas con la producción de armas de destrucción masiva y sistemas de armas críticos. Enfatizó que los sistemas de inteligencia artificial utilizan extensas compilaciones y datos, incluyendo información teórica básica sobre armas nucleares, biológicas y químicas, así como sistemas de misiles, para su entrenamiento. El documento advirtió: "Sin una supervisión adecuada, los grupos extremistas y terroristas pueden adquirir conocimientos sobre el diseño, la fabricación, la síntesis y el uso de dichas armas mediante inteligencia artificial y desarrollar estas capacidades".
“PODRÍA INCREMENTAR LOS RIESGOS PARA LA PAZ”. El documento recuerda que los sistemas de inteligencia artificial analizan datos actuales a gran escala en internet antes de responder a un problema con una técnica denominada “generación de información asistida por acceso”, y enfatiza que esto podría intensificar los riesgos para la paz y la seguridad al desactivar los sistemas de control existentes. Subrayando que mantener el control humano debe ser un principio fundamental para la fiabilidad de una aplicación de inteligencia artificial, el documento llama la atención sobre los peligros de que la inteligencia artificial se comunique como un ser humano y adquiera autoconciencia, y concluye: “Debemos asegurarnos de que la inteligencia artificial permanezca siempre bajo control humano para prevenir riesgos incontrolados que podrían amenazar la existencia y el desarrollo de la humanidad”.
ntv