science security lab
  • Inicio
  • Proyecto/s
  • Publicaciones
  • Enlaces
  • Contacto

PUBLICACIONES




​
​BLOG

Las buenas y malas noticias sobre la inteligencia artificial

27/2/2018

0 Comentarios

 
Imagen

Visto en The New York Times



Un dron fabricado por la compañía Skydio que puede seguir a una persona sin ser controlado por un humano usa partes disponibles en muchos lugares y un software de código abierto.Credit...Laura Morton para The New York TimesSAN FRANCISCO — Una empresa emergente de Silicon Valley develó hace poco un dron que puede marcar su camino de manera completamente independiente. Una aplicación móvil permite que el usuario le ordene al dron seguir a alguien. Una vez que el dron comienza a dar seguimiento al objetivo, será muy difícil que este se deshaga de él.
El dron tiene como objetivo ser un dispositivo lúdico. Sin embargo, no es una idea descabellada que este sabueso automatizado resulte un poco perturbador.
El 20 de febrero, un grupo de legisladores e investigadores en materia de inteligencia artificial (IA) emitió un informe que describía cómo las tecnologías de inteligencia artificial, que se desarrollan con rapidez y cada vez son más asequibles, podrían usarse con propósitos malintencionados.
El dron de rastreo ayuda a explicar sus preocupaciones. Fabricado por la empresa llamada Skydio, el dron cuesta 2499 dólares; se armó con piezas de construcción tecnológicas disponibles para cualquiera: cámaras ordinarias, programa de código abierto y procesadores de computadora de bajo costo. Con el tiempo, reunir estos componentes será cada vez más fácil y barato.
“Estas cosas están cada vez más disponibles en todos los sentidos”, dijo Adam Bry, uno de los fundadores de Skydio. Estas mismas tecnologías están aportando un nuevo nivel de autonomía a los vehículos, los robots en los almacenes, las cámaras de seguridad y una amplia gama de servicios de internet.
Sin embargo, a veces, los nuevos sistemas de IA también exhiben comportamientos inesperados y extraños debido a que no se entiende por completo la manera en que aprenden a partir de enormes cantidades de datos. Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos de visión computacional de hoy, por ejemplo, para que vean cosas que no existen.
En un contexto como este, los malhechores podrían burlar cámaras de seguridad o afectar a un vehículo autónomo.
Los investigadores también están desarrollando sistemas de IA que pueden encontrar y aprovechar brechas de seguridad en todo tipo de sistemas, dijo Paul Scharre, un autor del informe. Estos sistemas pueden utilizarse como métodos de defensa y ataque.
Las técnicas automatizadas harán que sea más fácil perpetrar ataques que ahora requieren mucha labor humana, entre ellos el spear phishing o ciberestafa, que involucra reunir y usar los datos personales de las víctimas. En los próximos años, según el informe, las máquinas serán más capaces de recolectar e implementar estos datos por sí mismas.


0 Comentarios

    José Manuel Rábade Roca 

    Ph.D. Ciudadano crítico. Trabajando e investigando en seguridad, pero ante todo abierto al cambio. 
    ​Miembro colaborador  de varias asociaciones (Trafpol, Icono14). 


    Archivos

    Noviembre 2023
    Octubre 2023
    Diciembre 2022
    Marzo 2021
    Enero 2021
    Diciembre 2020
    Noviembre 2020
    Octubre 2020
    Septiembre 2020
    Mayo 2020
    Abril 2020
    Marzo 2020
    Febrero 2020
    Enero 2020
    Diciembre 2019
    Noviembre 2019
    Octubre 2019
    Septiembre 2019
    Enero 2019
    Diciembre 2018
    Octubre 2018
    Mayo 2018
    Febrero 2018
    Julio 2017
    Abril 2017
    Febrero 2017
    Junio 2016
    Mayo 2016
    Abril 2016
    Marzo 2016
    Junio 2015
    Marzo 2015
    Enero 2015
    Octubre 2014
    Septiembre 2014
    Marzo 2014

    Canal RSS

Con tecnología de Crea tu propio sitio web con las plantillas personalizables.
  • Inicio
  • Proyecto/s
  • Publicaciones
  • Enlaces
  • Contacto