Guía de ciberseguridad para instituciones democráticas: inteligencia artificial (ITSAP.00.135)
Junio 2024 | Serie de concientización
Inteligencia artificial (IA) Es una tecnología en continuo desarrollo que utiliza algoritmos informáticos para realizar tareas, predecir resultados y crear contenido. Generativo AI es un subconjunto específico de AI que utiliza grandes conjuntos de datos para crear nuevos contenidos. No cabe duda de que AI ha complicado el panorama democrático. La mayor disponibilidad de grandes modelos de lenguaje (LLM), chatbots y tecnología de creación de medios sintéticos ha hecho que sea más fácil para los actores de amenazas interrumpir las campañas y elecciones democráticas.
Los actores de amenazas cibernéticas pueden crear y difundir contenido fabricado para causar confusión, desacreditar el sistema electoral y difundir una narrativa falsa para influir en los votantes. Pueden utilizar AI para aumentar la producción de ataques de denegación de servicio distribuido (DDoS) o crear malware que no sea detectable por los antivirus y las protecciones antimalware habituales. También pueden utilizar LLM (Máster en Derecho) Producir y difundir ampliamente una comunicación altamente personalizada y realista. LLM (Máster en Derecho) Son económicos y de fácil acceso para cualquiera que desee perturbar una campaña electoral. Debido a estas capacidades, quienes trabajan para instituciones democráticas deben estar extremadamente alertas cuando utilizan el correo electrónico, las redes sociales y otros canales de comunicación.
AI También mejora la recopilación de datos. En manos de actores de amenazas, esto se puede utilizar para recopilar y distribuir rápidamente información pública. Esto se puede utilizar luego contra candidatos y personal para llevar a cabo actividades como ataques de doxing. El doxing es el acto de proporcionar información personal, como direcciones, en línea, generalmente con intenciones maliciosas. AI Las tecnologías están evolucionando rápidamente y las estrategias de mitigación de esta publicación pueden no ser suficientes en el futuro. Se seguirán proporcionando mitigaciones y actualizaciones adicionales a las orientaciones a medida que AI evoluciona.
En esta página
Tipos de contenido falso o sintético
- Falsificaciones profundas: Imágenes o grabaciones que han sido alteradas para mostrar a alguien diciendo o haciendo algo polémico o sensacionalista. Suelen ser convincentes en su apariencia y se hicieron con la intención de engañar.
- Cuentas falsas en redes sociales:Se utiliza para hacerse pasar por políticos o personas de la comunidad que tienen influencia, como celebridades.
- Clonación de voz:Uso de muestras de discursos, entrevistas y otros fragmentos de audio para hacerse pasar por alguien. La clonación de voz se puede utilizar para hacerse pasar por autoridades y personal electoral con el fin de obtener acceso a información confidencial, difundir desinformación o desacreditar a un candidato.
- Desinformación: Se utiliza para proporcionar información falsa sobre temas relacionados con las elecciones, como dónde y cuándo votar, con el objetivo de perturbar el proceso de votación. La intención es causar confusión y reducir la participación electoral en una población objetivo.
Sesgo y entrenamiento de la inteligencia artificial
LLM (Máster en Derecho) Son algoritmos que utilizan programas que pueden comprender indicaciones y generar respuestas similares a las humanas. Se entrenan con grandes conjuntos de datos para analizar, resumir, traducir y generar contenido. Sin embargo, su resultado es tan bueno y preciso como su entrada.
Estos programas dependen del contenido disponible en línea. Cualquier información que se utilice como entrada o como indicación también se puede utilizar para entrenar los modelos. Debe conocer qué tipos de contenido y barreras de seguridad LLM (Máster en Derecho) están recibiendo, así como qué tipos de contenido no están incluidos o no están disponibles. Puede haber una afluencia abrumadora de datos de una determinada parte del mundo o de un grupo demográfico específico, mientras que otras áreas y grupos pueden estar representados solo por una pequeña muestra de datos o ninguno en absoluto. Esta discrepancia se llama sesgo. Es imposible eliminarlo por completo de LLM (Máster en Derecho) pero debemos ser conscientes de ello.
Los grupos subrepresentados, como las minorías étnicas o lingüísticas, pueden estar representados de manera injusta o no estar representados en absoluto en LLM (Máster en Derecho) ‘ salida. Excluir ciertos grupos demográficos impide LLM (Máster en Derecho) de participar en debates políticos precisos.
Cómo mitigar la amenaza de la inteligencia artificial
- Proteja la información confidencial implementando controles de acceso, contraseñas seguras y autenticación multifactor (MFA)
- Implementar controles de seguridad en el correo electrónico del personal, plataformas de medios y otros dispositivos de trabajo.
- Fortalezca las cuentas de redes sociales de su organización mediante lo siguiente:
- Desactivar o eliminar perfiles que ya no se utilizan
- eliminar cualquier información personal identificable
- Hacer que los perfiles personales sean privados
- Desarrollar políticas de confianza cero para limitar el acceso a cierta información y aplicaciones
- Tómese el tiempo y el cuidado adicionales para verificar la información antes de responderla.
- Sea selectivo al participar en comentarios en línea
- Adoptar una política de contraseña rotativa, que solo conozca el personal autorizado, para evitar que los adversarios obtengan acceso a los sistemas de la organización a través de la clonación de voz en tiempo real.
- A menudo se genera automáticamente una contraseña o frase de contraseña rotativa y se cambia a intervalos regulares para impedir el acceso no autorizado.
- Eduque a los miembros del personal, a sus seguidores y al público sobre:
- Los riesgos y vulnerabilidades potenciales del uso y consumo de los medios de comunicación
- la alfabetización mediática
- Qué ver en línea
- Cómo identificar fuentes confiables y verificar información
- Reportar incidentes de deepfakes a la plataforma en la que están alojados y al Centro Antifraude de Canadá (CAFC) utilizando su sistema de informes en línea o por teléfono al 1-888-495-8501
- Redactar de forma proactiva una página de preguntas frecuentes o una respuesta establecida para consultas sobre contenido sintético
- Asegúrese de que las redes que albergan procesos electorales estén diseñadas e implementadas con mecanismos de autenticación sólidos, como MFA
- Desarrollar un plan de gestión de incidentes