Foresenics - Informática forense
Foresenics - Informática forense

Te necesito. Creo

22/11/2018 04:56 PM Comentario(s) Por Foresenics

  deep web

Necesitamos la inteligencia artificial para sobrevivir como especie. Lea más...

  Armas autónomas que ataquen a un objetivo sin necesidad de intervención humana, sistemas de análisis de comportamientos capaces de  influir en el voto de la sociedad o  vehículos sin conductor que puedan ser hackeados para producir un accidente. La inteligencia artificial además de suponer una gran oportunidad para la humanidad, trae consigo una serie de riesgos. Como dijo en 2017  el físico británico Stephen Hawking, “puede ser  lo mejor o lo peor que le suceda a la raza humana”. Los expertos en este sector predicen que habrá quienes intenten hacer un mal uso de esta herramienta. Pero, ¿se debe dejar de usar esta tecnología por ellos? “Necesitamos la inteligencia artificial para sobrevivir como especie”, asegura a EL PAÍS  Nuria Oliver, doctora en Inteligencia Artificial por el  MIT y miembro de la Real Academia de Ingeniería. Sin ella, “no vamos a poder afrontar muchos de los grandes retos a los que nos enfrentamos como el cambio climático, el envejecimiento de la población y la prevalencia de enfermedades crónicas o la disponibilidad de recursos limitados”.
Más de 8.000 científicos especializados en áreas tecnológicas —como el fundador de Tesla, Elon Musk, o el cofundador de Apple Steve Wozniak— han firmado una  carta abierta publicada en 2015 que alerta de los peligros de la inteligencia artificial. Debido a su gran potencial, los expertos sostienen que es importante investigar cómo aprovechar sus beneficios y evitar los riesgos potenciales. Por ello, la Comisión Europea ha nombrado este año un Comité de Expertos de Alto Nivel en Inteligencia Artificial, con el fin de estudiar las implicaciones éticas, legales y sociales de esta herramienta. “El peligro de la inteligencia artificial no es la singularidad tecnológica debida a la existencia de unas hipotéticas superinteligencias artificiales. Los verdaderos problemas ya están aquí”, afirma Ramón López de Mántaras. El director del  Instituto de Investigación en Inteligencia Artificial del CSIC sostiene que estos riesgos tienen que ver con la privacidad, la autonomía, la excesiva confianza acerca de las capacidades de las máquinas, el sesgo de los algoritmos de aprendizaje y la imposibilidad para rendir cuentas y justificar sus decisiones en un lenguaje comprensible para las personas. Sonia Pacheco, directora del congreso  Digital Business World Congress,distingue entre un mal uso de la inteligencia artificial “no intencionado” y el mal uso “con intencionalidad”. El primero puede ocurrir cuando un algoritmo es entrenado con datos sesgados y condicionados por nuestros conocimientos y prejuicios. Por ejemplo, Amazon empezó a desarrollar en 2014 una inteligencia artificial de reclutamiento que, basándose en los archivos de los últimos 10 años de la compañía,  aprendió que los hombres eran preferibles y empezó a discriminar a las mujeres.

Dilemas éticos

“Las decisiones algorítmicas basadas en datos tienen el potencial de mejorar nuestra toma de decisiones”, sostiene Oliver. Pero cuando estas decisiones afectan a miles o millones de personas, “surgen dilemas éticos importantes”: “¿Cómo podemos garantizar que dichas decisiones y actuaciones no tienen consecuencias negativas para las personas? ¿Quién es responsable de dichas decisiones? ¿Qué sucederá cuando un algoritmo nos conozca a cada uno de nosotros mejor que nosotros mismos y pueda aprovechar dicho conocimiento para manipular de manera subliminal nuestro comportamiento?”. Un mal uso de la inteligencia artificial “con intencionalidad” podría traer consigo riesgos físicos, políticos o de seguridad, según Pacheco. Por ejemplo, un coche autónomo podría ser hackeado y estrellado o usado como un arma, las  fake newspueden “llenar de ruido las redes sociales con el objetivo de manipular de manera dirigida a grupos de usuarios seleccionados” y “sistemas maliciosos podrían replicar nuestra voz generando información falsa o generar imágenes de nosotros que fueran irreales gracias a técnicas de regeneración de imagen”. El fundador y consejero delegado de Amazon, Jeff Bezos, afirmó el pasado abril  en el Foro sobre Liderazgo del Centro Presidencial George W. Bush que es “mucho más probable que la inteligencia artificial nos ayude”. Pero reconoció los peligros que puede conllevar: “Las armas autónomas son extremadamente aterradoras”. El mayor riesgo, según Oliver, “no está en robots físicos sino en sistemas de  software de gran escala que pueden afectar a millones de personas en muy poco tiempo”. “Para minimizar el riesgo de que estos sistemas puedan ser  hackeados, es fundamental tomar medidas de seguridad, fiabilidad, reproducibilidad, prudencia y veracidad”, afirma la doctora en Inteligencia Artificial por el MIT.
Compartir -