Dominio Libre
Programas y Software seguridad Tecnología y Hardware

Los hackers podrían hacer que una IA peligrosa sea más segura

hackers
Los hackers podrían hacer que una IA peligrosa sea más segura.

Está creciendo una brecha de confianza entre el público y los desarrolladores de IA. Un nuevo conjunto de recomendaciones podría ayudar.

Se necesita un nuevo tipo de comunidad para marcar despliegues peligrosos de inteligencia artificial, argumenta un foro de políticas publicado en Science. Esta comunidad global; formada por hackers, modeladores de amenazas; auditores y cualquier persona con buen ojo para las vulnerabilidades del software, pondría a prueba los nuevos productos y servicios impulsados ​​por inteligencia artificial. El escrutinio de estos terceros finalmente “ayudaría al público a evaluar la confiabilidad de los desarrolladores de IA”; escriben los autores, al mismo tiempo que da como resultado productos y servicios mejorados y una reducción del daño causado por una IA mal programada, poco ética o sesgada.

Este llamado a la acción es necesario, argumentan los autores, debido a la creciente desconfianza entre el público y los desarrolladores de software que crean IA, y porque las estrategias actuales para identificar y reportar casos dañinos de IA son inadecuadas.

En la actualidad, gran parte de nuestro conocimiento sobre los daños de la IA proviene de investigadores académicos y periodistas de investigación

“En la actualidad, gran parte de nuestro conocimiento sobre los daños de la IA proviene de investigadores académicos y periodistas de investigación, que tienen acceso limitado a los sistemas de IA que investigan y, a menudo, experimentan relaciones antagónicas con los desarrolladores cuyos daños descubren”, según el foro de políticas en coautoría con Shahar Avin del Centro para el Estudio del Riesgo Existencial de Cambridge.

Sin duda, nuestra confianza en la IA y en los desarrolladores de IA se está erosionando y se está erosionando rápidamente. Lo vemos en nuestro enfoque evolutivo de las redes sociales; con preocupaciones legítimas sobre la forma en que los algoritmos difunden noticias falsas y se dirigen a los niños. Lo vemos en nuestras protestas de algoritmos peligrosamente sesgados utilizados en tribunales, medicina, vigilancia y reclutamiento, como un algoritmo que brinda apoyo financiero inadecuado a pacientes negros o software policial predictivo que se dirige desproporcionadamente a vecindarios latinos, negros y de bajos ingresos. Lo vemos en nuestras preocupaciones sobre los vehículos autónomos, con informes de accidentes mortales que involucran a Tesla y Uber. Y lo vemos en nuestros temores por los drones autónomos armados. La reacción pública resultante y la creciente crisis de confianza son totalmente comprensibles.

Descubre más desde Dominio Libre

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo