1 – ¿Cómo podemos definir la IA?
El término «inteligencia artificial» fue introducido, en 1956, por los investigadores estadounidenses Marvin Minsky y John McCarthy en una escuela de verano de investigación en el Dartmouth College (Hanover, New Hampshire, Estados Unidos). Aunque no existe una definición estrictamente consensuada, en general, se denomina IA a la capacidad de una máquina para ejecutar tareas que suelen realizar los seres humanos.
Sin embargo, esta definición aún es demasiado imprecisa para los expertos, que suelen utilizar un vocabulario más específico para designar y clasificar estos programas informáticos en función de la naturaleza de los algoritmos utilizados (por ejemplo, sistemas expertos, sistemas híbridos, sistemas neuronales, sistemas adversariales, sistemas generativos, etcétera) o de su caso de aplicación (agentes conversacionales, sistemas de reconocimiento facial o de caracteres, sistemas de recomendación, etcétera).
Del mismo modo, el legislador también se esfuerza por establecer un consenso sobre la definición de la IA. Por ejemplo, la definición de la IA, en la propuesta de regulación de sistemas de IA del Parlamento Europeo (IA Act), ha cambiado constantemente en un intento de distinguir esta tecnología disruptiva de los programas informáticos tradicionales1. Es difícil para las instituciones estabilizar una taxonomía y definiciones para designar sistemas cuyas capacidades evolucionan rápidamente. Por ejemplo, una de las definiciones dadas por la OCDE2 no menciona los sistemas generativos capaces de producir contenidos textuales o imágenes novedosos, a diferencia de los denominados sistemas de IA predictiva especializados en el reconocimiento de patrones o en el ajuste de curvas para realizar predicciones.
2 – Algunas fechas clave en la historia de la IA
Desde finales de los años 1940, la historia de la IA ha sido una mezcla de periodos de brillantez tecnológica y desinterés. Los periodos de desinterés se denominan «inviernos de la IA». Por ejemplo, a mediados de los setenta y finales de los ochenta, la gloriosa narrativa en torno a la IA no reflejaba los logros concretos de la tecnología realmente desplegada en la industria en aquel momento, lo que provocó un drástico descenso del financiamiento y un desinterés general por la tecnología.
Aunque no existe una definición estrictamente consensuada, en general, se denomina IA a la capacidad de una máquina para ejecutar tareas que suelen realizar los seres humanos.
Al igual que en la literatura, los periodos de avances tecnológicos van acompañados de una sucesión de ideas sobre la mejor manera de desarrollar sistemas de IA exitosos. Así, las décadas de 1940 y de 1950 vieron el advenimiento de la cibernética y de la máquina adaptativa. En concreto, Wiener aplicó la teoría de control y sistemas dinámicos para desarrollar sistemas de defensa aérea que corrigieran, en tiempo real, errores de predicción de trayectoria y que guiaran los misiles. Estas ideas se retomaron mucho más tarde en el desarrollo de los sistemas neuronales profundos.
En 1956, Minsky y McCarthy introdujeron el término de IA como materia científica y situaron la IA simbólica, basada en la lógica, como núcleo de la comprensión de la inteligencia. Era la época de sistemas expertos basados en catedrales de reglas lógicas, pero sin noción real de aprendizaje. El ingeniero se sienta con el experto (un médico, por ejemplo) e intenta deducir una serie de reglas lógicas que combina para construir el sistema: analizar síntomas, detectar tumores, etcétera.
Estos sistemas fueron cayendo poco a poco en desuso. En los años 90, aparecieron las primeras redes neuronales, que se utilizaron para reconocer números en cheques, pero fue hasta el cambio de 2012 cuando establecieron su superioridad a los ojos de todos para procesar datos textuales, de imagen o de audio presentes en abundancia en Internet y codificados en forma puramente digital.
En ese momento, los modelos logran importantes mejoras de rendimiento en la tarea para la que fueron programados, pero siguen siendo inútiles fuera de tal función. Más recientemente, en la década de 2020, estos sistemas escalan masivamente y, en el caso de los más grandes, incluyen cientos de miles de millones de parámetros (o, incluso, cientos de billones3) para lograr un rendimiento inigualable. Estamos en la era de los modelos fundacionales y de los grandes modelos lingüísticos.
El paradigma está cambiando y se observan empíricamente nuevos fenómenos, denominados de emergencia: un mismo modelo es capaz de realizar con éxito una multitud de tareas y el usuario interactúa con él en lenguaje natural (inglés, francés, etcétera). La potencia de cálculo exponencial necesaria para programar estos modelos se duplica cada 3 o 4 meses4.
Un mismo modelo es capaz de realizar con éxito una multitud de tareas y el usuario interactúa con él en lenguaje natural (inglés, francés, etcétera). La potencia de cálculo exponencial necesaria para programar estos modelos se duplica cada 3 o 4 meses.
3 – ¿Qué características hacen única a la IA como tecnología?
La IA es una tecnología dual: sus aplicaciones son, inicialmente, comerciales, desarrolladas por el sector privado (GAFA, startups digitales, etcétera) y las mejoras están impulsadas por la demanda de los consumidores y ya no por directivas gubernamentales, como podría ser el caso de éxitos industriales como MBDA o Airbus. En una segunda fase, la transferencia de estas tecnologías para usos de defensa o proyección de poder (militar, desinformación, vigilancia) las convierte en vectores de influencia estratégica. Por ejemplo, un modelo que ayuda al descubrimiento de nuevos medicamentos puede desviarse de su uso principal para ayudar a la fabricación de armas bioquímicas.
La IA es una tecnología transversal: es de aplicación general y puede utilizarse en casi todos los sectores de la sociedad. En el campo de la inteligencia artificial, el mecanismo de reutilización o transferencia de tecnología para diversos usos entró, recientemente, en una nueva dinámica. En la actualidad, la tendencia apunta a la aparición de large language models (LLM) para cada tipo de modalidad; por ejemplo, GPT-3 para datos textuales, VALL.E para audio o DALL.E para imágenes. De estos gigantescos modelos genéricos (varios cientos de miles de millones de parámetros), se derivan infinidad de aplicaciones industriales y comerciales finales.
La IA es una tecnología estocástica: sus resultados pueden relacionarse con una serie de procesos aleatorios y, por lo tanto, se vinculan con la incertidumbre de procesos de muestreo. Por ejemplo, en el caso de un sistema generativo de textos, las palabras se seleccionan con cierta probabilidad a lo largo del tiempo. Por lo tanto, puede resultar más complejo garantizar su solidez y confiabilidad que en el caso de un software tradicional.
ChatGPT es la encarnación de un cambio de paradigma en la IA y marca la entrada en la era de la IA generativa.
La IA es una tecnología centralizada: la toma de decisiones en el desarrollo de modelos se acomoda en torno a un pequeño número de ingenieros en startups que innovan en la frontera tecnológica. Poco a poco, la asimetría de recursos ha ido aumentando entre los laboratorios privados y la investigación universitaria. Como la investigación ya no está necesariamente sujeta a la publicación en conferencias de revisión por pares, esto plantea problemas de transparencia en cuanto a las capacidades reales de ciertos modelos de IA.
4 – ¿Qué es ChatGPT y qué cambia GPT-4?
ChatGPT, el agente conversacional de OpenAI, es la encarnación de un cambio de paradigma en la IA y marca la entrada en la era de la IA generativa y de los large language models. Antes, un modelo se programaba para una tarea determinada: ordenar imágenes, traducir textos, jugar al Go, etcétera. Más allá de la tarea para la que se entrenaban, estos sistemas eran completamente inútiles. En cambio, estos large language models no sólo generan texto sintácticamente correcto, sino que, además, tienen otras capacidades llamadas emergentes que los modelos más pequeños no tienen. Son capaces de realizar tareas para las que no han sido programados a priori y, por lo tanto, son capaces de generalizar a partir de unos pocos ejemplos escritos en lenguaje natural (en francés o inglés, por ejemplo).
Su rendimiento mejora cuando se les da un ejemplo de razonamiento lógico para ayudarles en la solución. En este sentido, desempeñan un papel similar al de un compilador informático: traducir un programa a una instrucción ejecutable por la máquina.
En el caso de los large language models, estos nuevos tipos de compiladores no se programan con código informático, sino con nuestro lenguaje natural. Andrej Karpathy, director de equipos de ingeniería en Tesla y OpenAI, resume la idea: «El inglés se ha convertido en el nuevo lenguaje de programación». Los usuarios interactúan con estos programas a través de una interfaz de diálogo. La calidad del diálogo llevó a un ingeniero de Google a explicar que el prototipo desarrollado por la empresa tenía conciencia. Más allá de la anécdota, la evaluación de estos sistemas es esencial y conviene distinguir entre las capacidades lingüísticas de estos sistemas y el pensamiento: aunque presenten capacidades lingüísticas formales, las capacidades funcionales de estos modelos (razonar sobre el mundo, comprender elementos de lógica formal, formular preguntas para aclarar un punto) son, por el momento, limitadas y fuente de numerosos errores factuales (alucinaciones) o causales.
Aunque presenten capacidades lingüísticas formales, las capacidades funcionales de estos modelos (razonar sobre el mundo, comprender elementos de lógica formal, formular preguntas para aclarar un punto) son, por el momento, limitadas y fuente de numerosos errores factuales (alucinaciones) o causales.
GPT-4 es el nuevo modelo multimodal (procesa tanto texto como imágenes) que presentó, en marzo de 2023, la empresa OpenAI, capaz de asistir a los humanos en una serie de tareas cada vez más complejas. Según la firma californiana, el modelo es capaz de superar diversas pruebas, como el examen de abogados, para el que obtiene resultados superiores a los del 90 % de los candidatos humanos, o las Olimpiadas de Biología, en la que supera al 99 % de los candidatos humanos.
Recientemente, otros actores se están posicionando para desarrollar este tipo de modelos, como las empresas DeepMind o Anthropic, el laboratorio de investigación sin ánimo de lucro Eleuther AI o iniciativas académicas o de código abierto. Los riesgos asociados con estos sistemas son, actualmente, difíciles de evaluar y no hay consenso sobre cómo desplegarlos: nivel de acceso y control del modelo por parte del usuario.
GEOPOLÍTICA DE LA IA
5 – La creciente geopolitización de la IA
La IA es una innovación disruptiva capaz de alterar equilibrios estratégicos y los marcadores del tecnonacionalismo están cada vez más presentes en la escena internacional al cristalizar las tensiones geopolíticas. Para una nación, dominar la IA es una cuestión geopolítica, como demuestra la famosa frase de Vladimir Putin: «el líder en inteligencia artificial dominará el mundo». Cuando la empresa Naver, competidora coreana de Google, anunció que podía reproducir modelos de generación de textos tan eficientes como sus competidores estadounidenses, el comunicado de prensa especificaba que «a diferencia del modelo GPT-3 centrado en el inglés, esto también significa asegurar la soberanía de la IA desarrollando un modelo lingüístico optimizado para el coreano». El ejemplo de China también es emblemático de un nuevo tecnonacionalismo: el Ministerio de Ciencia y Tecnología elaboró una lista de empresas destinadas a formar un «equipo nacional para la IA» capaz de proyectar la supremacía china.
Para una nación, dominar la IA es una cuestión geopolítica, como demuestra la famosa frase de Vladimir Putin: «el líder en inteligencia artificial dominará el mundo».
Además, existe una creciente geopolítica en torno al open source. Actualmente, la investigación china sigue dependiendo, en gran medida, del open source estadounidense, según los datos facilitados por el servicio de alojamiento de gestión de software Github.
El número de programas informáticos de open source desarrollados por estadounidenses y apreciados por los investigadores de ambos países (pueden votar dando una puntuación de estrellas, como en Amazon) es veinte veces superior al número de programas informáticos de open source desarrollados por investigadores chinos. China intenta emanciparse de la plataforma estadounidense e impulsar su propia agenda de open source.
Por ejemplo, la licencia de open source de uno de los últimos modelos de IA de la Universidad de Tsinghua contiene una cláusula que establece que el sistema «no se utilizará para acciones que puedan socavar la seguridad o la unidad nacional de China». Para navegar en este nuevo contexto, las empresas de IA de Silicon Valley están desarrollando su propia capacidad de análisis geopolítico con la formación de equipos dedicados a estudiar cuestiones como la forma en la que los actores geopolíticos anticipan y reaccionan ante avances de la IA o la manera en la que se le informa y prepara al mundo para los avances tecnológicos8.
6 – El enfrentamiento entre China y Estados Unidos se cristaliza en torno a los semiconductores, componentes críticos de la IA.
El enfrentamiento entre China y Estados Unidos está estructurando la carrera por el liderazgo en IA. Por eso hemos decidido iniciar la serie con un primer episodio, a cargo de Giuliano Da Empoli, que examina la enigmática convergencia de esta carrera geopolítica, contextualizándola y tomando distancia9.
Las dos potencias tecnológicas eligieron el campo de los semiconductores, una tecnología «fundamental» para el desarrollo de la IA. En efecto, la producción de large language models se beneficia de las capacidades de cálculo únicas de los mejores superordenadores y los semiconductores más avanzados son un componente esencial de éstos. La tecnología de semiconductores más avanzada es el núcleo de la doble estrategia estadounidense de asegurar su producción y contener a China. Estados Unidos se embarcó, así, en una estrategia de liderazgo que ya no se contenta con mantener la superioridad estadounidense en una o dos generaciones de chips por delante de China, sino que asegura la brecha «más amplia posible» con China.
La batalla ya comenzó: la CHIPS and Science Act (un plan de subvenciones de 52700 millones de dólares anunciado, en agosto de 2022, por la Administración estadounidense) especifica que se les prohibirá a las empresas beneficiarias invertir en la fabricación de semiconductores en China durante diez años. Además, en octubre de 2022, se añadió una serie de nuevas sanciones destinadas a impedir que los principales desarrolladores estadounidenses de chips informáticos de IA, como Nvidia y AMD, vendan sus componentes avanzados a China. Además, estas restricciones pretenden impedir que ciudadanos estadounidenses o titulares de una green card apoyen el desarrollo o la producción de semiconductores en China sin una licencia. En el corazón de las tensiones, vemos la preservación de la autonomía de Taiwán, crucial para Estados Unidos. La isla alberga la fábrica TSMC, primer fabricante mundial de semiconductores, que suministra más del 90 % de los componentes más avanzados utilizados en smartphones y computadoras.
La batalla ya comenzó: la CHIPS and Science Act (un plan de subvenciones de 52700 millones de dólares anunciado, en agosto de 2022, por la Administración estadounidense) especifica que se les prohibirá a las empresas beneficiarias invertir en la fabricación de semiconductores en China durante diez años.
7 – IA, guerra e hiperguerra
La inteligencia artificial apareció en el campo de batalla, principalmente, para acelerar el ciclo de toma de decisiones y la recopilación de información. La guerra en Ucrania ofrece un ejemplo particularmente emblemático al respecto. Los ejércitos ruso o ucraniano utilizan, actualmente, IA para diversas tareas de apoyo a soldados y al esfuerzo bélico en general. Desde análisis de imágenes satelitales hasta software de reconocimiento facial, pasando por software de inspección de vehículos, por software de control de fronteras, por campañas de desinformación mediante falsificaciones profundas y por sistemas de recomendación convertidos en armas de propaganda: la IA es omnipresente.
El futuro de la guerra bien podría ser el de la hiperguerra, un cambio de paradigma en la naturaleza del combate debido al despliegue de sistemas de armas letales autónomos, como los robots asesinos. Hoy en día, Francia tiene una doctrina clara al respecto: permite la investigación sobre modos de defensa contra estos sistemas, pero prohíbe su uso o desarrollo; el mantenimiento del control humano es uno de los pilares de su estrategia de IA. Para debatir estas cuestiones en un formato plurilateral, en febrero de 2023, se celebró, en los Países Bajos, la primera cumbre internacional sobre el uso de IA en defensa. China y Estados Unidos, junto con unos 60 países, hicieron un llamado al uso responsable de la tecnología10.
La inteligencia artificial apareció en el campo de batalla, principalmente, para acelerar el ciclo de toma de decisiones y la recopilación de información. La guerra en Ucrania ofrece un ejemplo particularmente emblemático al respecto.
8 – ¿Qué lugar queda para Europa?
Europa lucha por hacerse un hueco en la carrera por el liderazgo de la IA, que se articula, esencialmente, en torno al enfrentamiento entre Estados Unidos y China. En primer lugar, ocurre desde el punto de vista industrial. Aunque Europa es líder mundial en el equipamiento litográfico avanzado que se necesita para fabricar la última generación de semiconductores, últimamente, no ha sido capaz de producir líderes tecnológicos internacionales. En 2020, ninguna de las diez principales OPI tecnológicas es europea11.
En términos de inversión, Europa ha invertido poco en IA en comparación con sus competidores. La cantidad de capital de riesgo invertido en los últimos 5 años equivale a un año de inversión de capital de riesgo en China o Estados Unidos (o 100000 millones de dólares). Desde 2018, Europa cuenta con un nuevo instrumento, el «European Innovation Board»12, cuya ambición es apoyar necesidades de financiamiento de la innovación disruptiva: alto riesgo, inversión a largo plazo, agilidad y velocidad. Desde el punto de vista de la formación inicial, Europa ofrece un número de maestrías en IA cercano al de Estados Unidos, pero está muy por detrás en términos de oferta de licenciaturas (unos 6 veces menos programas de licenciatura). En términos más generales, los estudios sobre investigadores europeos de doctorado muestran que la motivación profesional es el principal factor de elección de la movilidad a Norteamérica13.
EL FUTURO DE LA IA
9 – ¿Cuál es el impacto de la IA en el empleo y en el futuro del trabajo?
El aumento de productividad que genera la IA seguirá creciendo14 y puede provocar un temor legítimo a la pérdida de estatus por parte de artistas, escritores, ingenieros o médicos que se sentirían amenazados de ser sustituidos por máquinas. Sin embargo, la investigación demuestra que los humanos y las máquinas no deben enfrentarse y que los mejores resultados del uso de IA se obtienen cuando el humano coopera con la máquina.
Por ejemplo, el radiólogo suele ser más eficaz al analizar una radiografía preprocesada por una máquina15 y el tiempo que se ahorra puede destinarse a la atención del paciente. El progreso técnico también es una fuente de crisis para sectores obsoletos, cuyos productos serán sustituidos por innovaciones. Con el lanzamiento de su smartphone, Apple destruyó gran parte del valor de Nokia, pero contribuyó a crear el ecosistema de aplicaciones móviles que, hoy, vale decenas de miles de millones de dólares.
La IA está transformando disciplinas muy creativas como el diseño y la mercadotecnia, mientras que muchos expertos pensaban que estos campos se mantendrían tal cual.
Las nuevas tecnologías siempre han desplazado puestos de trabajo: vimos la llegada de la computadora, del Internet, del automóvil… Estos ejemplos nos enseñan que lo más importante para la sociedad o la industria es acompañar el cambio en lugar de intentar luchar contra él. Hacer predicciones sobre los tipos de empleos más afectados por la IA ha resultado, hasta ahora, un ejercicio peligroso. En 2015, por ejemplo, los expertos predijeron el fin de los radiólogos sustituidos por sistemas de IA para 202016. Por el contrario, la IA está transformando disciplinas muy creativas como el diseño y la mercadotecnia, mientras que muchos expertos pensaban que estos campos se mantendrían tal cual.
10 – ¿Qué es la inteligencia artificial general?
También, se distinguen distintos tipos de IA según su capacidad para realizar bien una serie de tareas más o menos complejas. La IA débil, tal y como la conocemos hoy, es muy útil para realizar ciertas tareas muy precisas (reconocimiento de patrones y ajuste de curvas, generación de imágenes y textos), pero no tiene capacidad humana de autonomía ni de planificación a largo plazo ni de razonamiento. Por el contrario, la inteligencia artificial general, o fuerte, se refiere a cualquier máquina o intelecto que supere por mucho el rendimiento cognitivo de los humanos en prácticamente cualquier campo de interés. Aunque la tecnología no permite, actualmente, la aparición de este tipo de sistemas, los investigadores, filósofos y sociólogos de la IA ya están pensando en la seguridad a largo plazo de estos sistemas y en la mejor manera de garantizar que los valores o preferencias que aprendan se ajusten a los de los humanos.
FUENTE: legrandcontinent.eu
Views: 12