Contenidos
Peligros de la inteligencia artificial
Inteligencia artificial general
El crecimiento y la riqueza de Europa están estrechamente relacionados con el uso que se haga de los datos y las tecnologías conectadas. La IA puede suponer una gran diferencia en nuestras vidas -para bien o para mal- y el Parlamento Europeo ha creado una comisión para examinar el impacto de la tecnología. Los eurodiputados también han pedido una regulación de la IA preparada para el futuro. A continuación se exponen algunas oportunidades y amenazas clave relacionadas con las futuras aplicaciones de la IA.
Los países de la UE ya son fuertes en la industria digital y en las aplicaciones entre empresas. Con una infraestructura digital de alta calidad y un marco regulador que proteja la privacidad y la libertad de expresión, la UE podría convertirse en un líder mundial en la economía de los datos y sus aplicaciones.
Para las empresas, la IA puede permitir el desarrollo de una nueva generación de productos y servicios, incluso en sectores en los que las empresas europeas ya tienen posiciones fuertes: economía verde y circular, maquinaria, agricultura, sanidad, moda, turismo. Puede impulsar las ventas, mejorar el mantenimiento de las máquinas, aumentar el rendimiento y la calidad de la producción, mejorar el servicio al cliente, así como ahorrar energía.
12 riesgos de la inteligencia artificial
La IA ya se utiliza en los sistemas de justicia y de aplicación de la ley. La Policía Metropolitana de Londres está experimentando con un sistema de reconocimiento facial automatizado (AFR) que utiliza en eventos públicos como conciertos de música pop, festivales y partidos de fútbol. Las cámaras de vídeovigilancia móviles escanean a las multitudes y tratan de relacionar las imágenes de los rostros con las fotos de los delincuentes buscados. Según los datos obtenidos gracias a las leyes de libertad de información, el 98% de estas coincidencias son falsas. El grupo de presión Big Brother Watch advierte que el reconocimiento facial automatizado corre el riesgo de convertir los espacios públicos en puntos de control biométrico, con un efecto potencialmente escalofriante en una sociedad libre, ya que las personas evitan unirse a las marchas de protesta por miedo a ser identificadas erróneamente como delincuentes, y a ser arrestadas y retenidas mientras se comprueba su identidad.
Una cuestión más amplia se refiere a la recopilación de grandes datos: para que la IA progrese, la cantidad de datos necesarios para lograr el éxito aumentará inevitablemente. Esto significa que habrá riesgos cada vez mayores de que los datos de las personas sean recogidos, almacenados y manipulados sin su consentimiento o incluso sin su conocimiento. El reciente escándalo de Cambridge Analytica es un buen ejemplo de ello.
Desventajas de la inteligencia artificial
El riesgo existencial de la inteligencia general artificial es la hipótesis de que un progreso sustancial en la inteligencia general artificial (AGI) podría provocar algún día la extinción humana o alguna otra catástrofe global irrecuperable[1][2][3] Se argumenta que la especie humana domina actualmente a otras especies porque el cerebro humano tiene algunas capacidades distintivas de las que carecen otros animales. Si la IA supera a la humanidad en inteligencia general y se convierte en «superinteligente», entonces podría resultar difícil o imposible de controlar para los humanos. Al igual que el destino del gorila de montaña depende de la buena voluntad humana, el destino de la humanidad podría depender de las acciones de una futura máquina superinteligente[4].
La probabilidad de que se produzca este tipo de escenario es objeto de un amplio debate, y depende en parte de los diferentes escenarios de progreso futuro en la ciencia de la computación[5]. La preocupación por la superinteligencia, que antes era dominio exclusivo de la ciencia ficción, comenzó a generalizarse en la década de 2010, y fue popularizada por figuras públicas como Stephen Hawking, Bill Gates y Elon Musk[6].
Asociación para el avance …
Dado que la IA es una fuerza relativamente nueva en las empresas, pocos directivos han tenido la oportunidad de perfeccionar su intuición sobre el alcance total de los riesgos sociales, organizativos e individuales, o de desarrollar un conocimiento práctico de sus impulsores asociados, que van desde los datos introducidos en los sistemas de IA hasta el funcionamiento de los modelos algorítmicos y las interacciones entre humanos y máquinas. Como resultado, los ejecutivos suelen pasar por alto los peligros potenciales («No estamos utilizando la IA en nada que pueda ‘explotar’, como los coches autodirigidos») o sobrestiman las capacidades de mitigación de riesgos de una organización («Llevamos mucho tiempo haciendo análisis, así que ya tenemos los controles adecuados y nuestras prácticas están en línea con las de nuestros compañeros de la industria»). También es común que los líderes agrupen los riesgos de la IA con otros que pertenecen a especialistas en las organizaciones de TI y de análisis («Confío en mi equipo técnico; están haciendo todo lo posible para proteger a nuestros clientes y a nuestra empresa»).
Este artículo pretende ayudar ilustrando en primer lugar una serie de escollos fáciles de pasar por alto. A continuación, presenta marcos que ayudarán a los dirigentes a identificar sus mayores riesgos y a aplicar la amplitud y profundidad de los controles matizados necesarios para sortearlos. Por último, ofrece un primer vistazo a algunos esfuerzos en el mundo real que se están llevando a cabo para abordar los riesgos de la IA mediante la aplicación de estos enfoques.