Amazon Luna estará disponible para probar para cualquier usuario por tiempo limitado | Gaming
Amazon Luna estará disponible para probar para cualquier usuario por tiempo limitado | Gaming
14 junio, 2021
Google Chrome nos ayudará a ahorrar en nuestras compras gracias a esta funcionalidad oculta | Tecnología
Recuperar los grupos de pestañas cerrados en Chrome será más fácil gracias a esta nueva función | Tecnología
14 junio, 2021
Mostrar todo

¿Cómo una IA puede imitar de forma convincente a expertos en ciberseguridad?

Redes artificiales

Vía: Pixabay

La utilidad de la inteligencia artificial en nuestras vidas en innegable pero, ¿una IA se podría utilizar para imitar de forma convincente a expertos en ciberseguridad e investigadores médicos? Tal parece que sí, pues, un estudio ha revelado informes falsos generados por algoritmos que engañan a especialistas en estas áreas.

Para llegar a esa conclusión, los investigadores utilizaron modelos de IA conocidos como transformers –basados en NLP (Procesamiento del lenguaje natural) –. Estos se encargaron de “generar noticias falsas sobre ciberseguridad y estudios médicos COVID-19”. Posteriormente, facilitaron esa información a los expertos concernientes, descubriendo que los algoritmos tenían la capacidad de engañarlos. En el informe se señala lo siguiente:

“Transformers ha ayudado a Google y a otras empresas de tecnología mejorando sus motores de búsqueda y ha ayudado al público en general a combatir problemas tan comunes como luchar contra el bloqueo del escritor. Transformers, como BERT de Google y GPT de OpenAI, utilizan el procesamiento del lenguaje natural para comprender el texto y producir traducciones, resúmenes e interpretaciones… Los transformadores también se pueden utilizar con fines malévolos. Las redes sociales como Facebook y Twitter ya se han enfrentado a los desafíos de las noticias falsas generadas por IA en todas las plataformas”.

Los transformers podrían convertirse en una amenaza

De acuerdo a lo planteado anteriormente, los transformers podrían emplearse con fines perversos para causar zozobra en la sociedad. Específicamente en el sector sanitario y en la seguridad cibernética.

“Para ilustrar cuán serio es esto, ajustamos el modelo de transformador GPT-2 en fuentes abiertas en línea que discuten las vulnerabilidades de seguridad cibernética y la información de ataques”, expresaron los investigadores. En este caso, usaron el modelo de IA para generar información engañosa sobre ciberataques a aerolíneas con información confidencial en tiempo real.

“Esta información falsa podría evitar que los analistas cibernéticos aborden las vulnerabilidades legítimas en sus sistemas al centrar su atención en errores de software falsos. Si un analista cibernético actúa sobre la información falsa en un escenario del mundo real, la aerolínea en cuestión podría haberse enfrentado a un ataque serio que explota una vulnerabilidad real sin resolver”, explican.

De igual modo, el modelo de inteligencia artificial se usó para crear oraciones falsas sobre efectos secundarios de las vacunas del COVID-19. Esto resulta preocupante, puesto que se podría poner en peligro la vida de las personas “al desviar los esfuerzos de los científicos que realizan investigaciones biomédicas”. En estas situaciones, se recomienda validar la información en fuentes confiables y en estudios científicos publicados.

Fuente