Por: Daniel Urquijo Molina*, colaboración especial para Suregión
El martes 28 de marzo se divulgó una carta abierta firmada por numerosos científicos, expertos y líderes de la informática y las comunicaciones, la cual pedía pausar los más grandes experimentos con inteligencia artificial. Convocaba a todos los laboratorios de inteligencia artificial (IA) a cesar el entrenamiento de sistemas más inteligentes que el GPT-4 al menos por seis meses: un hecho sin precedentes en relación con las tecnologías de la información y la comunicación (TIC). Quizás se había hecho antes durante el siglo XX con experimentos animales, humanos o nucleares, pero nunca antes para inteligencias artificiales que compitieran con la humana.
A la fecha (10 de abril de 2023), 18 980 científicos, académicos y representantes del gremio de la tecnología en todo el mundo están evidenciando profundos cambios en la sociedad y la humanidad debido a estos avances desmedidos. Sin ahondar mucho en estos cambios, la carta afirma que estos avances deben hacerse de manera planeada y bien administrada en cuanto a recursos y cuidados se requieren. Los firmantes creen que no se están aplicando las prevenciones necesarias, sino que, por el contrario, se ha emprendido una carrera sin control por demostrar qué laboratorio puede lograr más con sus mentes digitales. Aun cuando no las comprenden, ni las predicen, ni las controlan, sus mismos creadores quieren más.
Valga aclarar que todo lo anterior sin duda se reduce exclusivamente a un ámbito digital que es considerado, al parecer, como el más importante e imprescindible para el género humano, y esto hace referencia a la alta competencia que entidades de IA están dando con los humanos en tareas generales que implican tecnología y habilidades comunicativas. Mejores en el uso de herramientas digitales, mejores en hacer razonamientos, mejores describiendo verbal y gráficamente un paisaje, mejores creando historias, argumentos o canciones sobre todo lo que se les pida; todo esto y mucho más gracias a un aprendizaje mil veces más eficaz que el que recibimos los humanos. ¿Desproporcionado desde esta perspectiva? Yo diría que sí.
Según expresa la carta, estos expertos temen que estas máquinas inunden de información falsa y tendenciosa nuestras telecomunicaciones (como si fuera nuevo), que seamos reemplazados por ellas en nuestros trabajos (incluso en los más “gratificantes”, ¿a qué aludirán con ello: a la comida, al sexo?), que nos tripliquen en número para burlarnos y engañarnos, y que pongamos en riesgo “nuestra civilización”, como si esta civilización fuera la panacea de todos nuestros males, como si hubiéramos resuelto los problemas más serios y vitales de nuestra existencia humana gracias a los logros alcanzados hasta el momento. Quizás quieran decir que, con esta competencia tecnológica sin parangón, la actual situación de desigualdad, hambre, injusticia y guerra empeoraría cada vez más. Si eso es así, solo debemos ver o leer noticias diarias para estar de acuerdo. Es muy curioso que afirmen: “Tales decisiones no deben ser delegadas a líderes de tecnología no electos”. ¿Y acaso qué líderes de tecnología firman esta carta? ¿Elon Musk (SpaceX, Tesla y Twitter), Steve Wozniak (Apple), Evan Sharp (Pinterest), Craig Peters (Getty Images), entre otros, son líderes electos o no electos? Veo presidentes entre los firmantes, pero solo de institutos y empresas.
Estos líderes y otros miles de expertos piden en su carta una pausa para poder planear un panorama en el que los riesgos provocados por las IA sean controlados y los efectos de su desarrollo sean positivos. ¿Temen acaso perder su posición privilegiada por empresas que avanzan con mentes digitales incontrolables que algún día se independizarán de los humanos? Algunos de ellos sí. Desde su punto de vista y si partimos de la idea de que muchos de ellos son los adalides y en sus manos está el futuro de la humanidad, al leer esa carta, se pueden interpretar sus palabras como “dennos un tiempo mientras sabemos qué hacer con este adelanto tecnológico que unos donnadies vinieron a mostrarnos y no lo teníamos muy presente; dennos un tiempo mientras creamos estrategias de mitigación de numerosos riesgos que nos afectan directamente a nosotros y, por ende, a la humanidad”. En todo caso, no todos los firmantes lo verán de esa forma (la gran mayoría son científicos prestigiosos que ven peligros evidentes en la cotidianidad de nuestro mundo digital), pero sí algunos querrán saber, en primera instancia, los alcances y efectos de las IA en sus empresas y negocios y, en segunda instancia, en los entornos de vida implicados en sus empresas e instituciones; en definitiva, todo aquello que tenga que ver con tecnología y procesamiento de información. ¿O acaso se están preguntando qué efectos causarán las IA en los cultivos de trigo y maíz? ¿O sobre los alcances que las IA tendrán en el transporte de insumos vitales? No me gustaría pensar que todo lo que queda por fuera de las TIC será por cierto lo último que sea revisado para saber la magnitud de sus consecuencias e impactos. Hasta que no se reduzca al mínimo la magnitud del potencial de estas IA sobre su entorno más cercano, a través de estrategias claras de mitigación, las tecnologías de IA serán poco confiables para ellos.
El poder de predicción de todos estos líderes y expertos académicos, hombres y mujeres de futuro (con todo el futuro del mundo, de hecho) superan con creces el mío o el de cualquier ciudadano que no trabaje con métricas, estadísticas y proyecciones logradas por equipos de cientos de expertos más del sector tecnológico. ¿Qué cambios ya vislumbran en el panorama que quieren evitar o, por lo menos, desacelerar a toda costa? ¿Cómo vislumbran estos hombres y mujeres de ciencia el futuro de estos sistemas inteligentes no humanos? Piden al menos seis meses de pausa; seis meses durante los cuales estos equipos trabajarán arduamente para seguir perpetuando su imperio en nombre de la humanidad: este es un pensamiento perverso que puede no ser cierto. Que piden una pausa pública y verificable que obligue a todos los actores importantes en este desarrollo a crear e implementar protocolos de seguridad para el diseño de IA avanzadas, con auditorías y supervisiones de expertos “externos” e “independientes”. Y si no es así, ¡que los Gobiernos intervengan! Afirman que no se pueden permitir modelos de cajas negras impredecibles con capacidades emergentes, poco confiables. ¿Este rechazo no será similar al de los banqueros con las criptomonedas? Es decir, reacciones que nacen de nuevos modelos que amenazan seriamente el sistema social actual, el statu quo. Los firmantes dicen “hacer de los más poderosos sistemas de estado actual del arte algo más preciso, seguro, interpretable, transparente, robusto, alineado, confiable y leal”. Piden trabajar entre políticos y desarrolladores en políticas que los regulen, ya que mediante regulaciones legales aceptadas públicamente estas IA avanzadas pueden adaptarse al sistema actual y de esa manera se estabilizan las posibles amenazas y alteraciones. ¡Por el bienestar de la humanidad! Además de autoridades reguladoras, piden vigilancia y rastreo de sistemas computacionales altamente capaces, sistemas identificadores de lo real y lo artificial, un ecosistema certificado y auditado, culpabilidad declarada por daños causados por IA, robustas subvenciones para investigaciones preventivas e instituciones bien dotadas para sobrellevar los “dramáticos trastornos económicos y políticos (especialmente a la democracia) que las IA puedan causar”.
Muchas de estas peticiones, por no decir todas, atienden de hecho, de manera general, a problemáticas que ya se están viendo y que se pueden robustecer aún más en un mundo totalmente tecnificado y digital. No obstante, después de leer muy pausadamente y al detalle esta carta abierta, considero que estos líderes, expertos y académicos reconocidos en el medio tecnológico y científico hablan en nombre de la humanidad entera confiando en que las amenazas que le puede causar el desarrollo ilimitado de sistemas artificiales inteligentes a la democracia van a ser resueltas o se pueden evitar si sus sistemas actuales no corren ningún peligro, lo cual representa a todos los modelos vigentes en la sociedad, a nivel económico, cultural y político. No cabe duda de que sus miedos ante una inestabilidad de los sistemas actuales traen consigo amenazas para la humanidad, pero solo porque en el fondo, tanto los viejos como los nuevos sistemas, no están interesados en resolver los problemas esenciales de la humanidad. Un teórico de la conspiración creería a carta cabal que si no ocultan descubrimientos que deberían ser compartidos para el bienestar de la población, impiden o retrasan el desarrollo de nuevos descubrimientos ya compartidos, que son susceptibles de replantear políticas laborales, económicas, políticas y culturales de la humanidad. El individuo está en estas colectividades firmantes. ¿Firmaría usted esta carta?
Sobre el autor
*Daniel Urquijo Molina (Bogotá, 1985) es editor académico y literario. Trabaja en temas de inclusión y apropiación social del conocimiento para Ediciones Universidad Cooperativa de Colombia y en proyectos independientes de edición. Es escritor en sus tiempos libres y se interesa en el avance de la tecnología y su impacto en la cultura, especialmente, en el medio editorial y artístico.