¿Es el mundo más o menos riesgoso que un año atrás, antes del lanzamiento al mercado de ChatGPT? Eso depende de quién lo responda. Lo cierto es que su éxito resulta indiscutible y la inteligencia artificial, aunque ya existía desde antes de 2016, ha terminado por meterse de lleno en la vida de personas y empresas tras su puesta en escena realizada por la firma OpenAI en noviembre de 2022. Claro que en algunos casos ha sido para facilitarla y en otros para hacerla más compleja.

En la medida en que los sistemas de inteligencia artificial progresan, se perfeccionan y seducen a usuarios en el mundo, hasta ahora ChatGPT suma más de 180 millones, también desatan duras controversias. Casi todas alrededor de sus beneficios versus perjuicios. O lo que es lo mismo, en torno a su potencial creativo frente al destructivo, que lejos de ser ciencia ficción ha traído consigo amenazas difíciles de encarar por la ausencia de un marco regulatorio, si cabe de cobertura internacional, que defina o limite su alcance, así como sus usos en los diversos ámbitos.

Quienes lidian a diario con estas asombrosas herramientas desarrolladas por humanos, programadas por ellos, de suerte que también pueden fallar como cualquiera de sus artífices, lo cual no debería pasarse por alto, coinciden en que su sesgada e inapropiada utilización podría derivar en graves complicaciones en términos de ciberseguridad, desinformación o privacidad.

Bien lo saben escritores, actores y artistas gráficos, entre otros creadores que han sido los primeros en denunciar abusos o excesos de la inteligencia artificial generativa. Esta tecnología capaz de generar, justamente, textos, audios, imágenes, música o videos, según solicitudes puntuales formuladas por los usuarios, a partir del universo de datos obtenido en internet, echa mano de todo lo que encuentra para entrenarse en un insaciable proceso de aprendizaje automático que luego se traduce en algoritmos, patrones y predicciones. Así es como funciona.

De modo que la inteligencia artificial, por su manera de simular el razonamiento humano, también es capaz de expresar en sus contenidos algunos de los peores rasgos de las personas, como sus prejuicios discriminatorios o sesgos cognitivos.

Peligros tan reales como intimidantes.

A las voces críticas de artistas que alertan cómo las grandes tecnológicas estarían usando sus trabajos originales publicados en la red de redes para crear nuevos contenidos, vía ChatGPT sin su consentimiento ni compensación alguna, se suma ahora uno de los principales diarios de Estados Unidos, The New York Times. El medio inició esta semana una dura batalla legal contra OpenAI y Microsoft, a las que demandó por una presunta violación de derechos de autor de sus periodistas. Habla de un pago por “miles de millones de dólares en daños legales y reales” por la “copia ilegal, a gran escala, y el uso de obras de valor único”. Se le agotó la paciencia al rotativo que buscó un trato con las empresas que les compiten de frente y sin pagarles por las fuentes.

Al paso que vamos será más difícil, casi que imposible, diferenciar lo que es real de lo que no lo es, si lo generó un sistema de inteligencia artificial o su origen es humano. No bastará agudizar los sentidos ni siquiera acudir a creíbles o confiables fuentes de in- formación, hará falta madurar un elevado pensamiento crítico soportado en alfabetización digital que nos sirva para cuestionar, dudar u objetar lo que consumimos para no caer en manipulación o engaño. Suena agotador, pero cabría suponer que esta será una habilidad evolutiva que la humanidad deberá desarrollar.

Sería deseable que la arquitectura institucional mundial se pusiera de acuerdo para establecer normas claras sobre su uso. Por el momento, la Unión Europea aprobó una ley para regularla exigiéndoles a las compañías que respeten los derechos de autor, en Estados Unidos el presidente Joe Biden firmó una orden ejecutiva para tratar de ponerla en cintura, Naciones Unidas discute sus efectos y así. Acciones unilaterales en un mismo sentido, pero con escasas posibilidades de que sean eficaces o se cumplan porque las multimillonarias gigantes tecnológicas no tienen la menor intención de autorregularse ni de revelar cómo obtienen sus contenidos. Es una pelea perdida en la que habrá que seguir buscando una gobernanza global para proteger o prevenir los riesgos de la inteligencia artificial que, pese a sus innegables usos positivos, también despierta recelos.