Experto en inteligencia artificial sugiere marcas de agua en imágenes y textos creados por robots

Experto en inteligencia artificial sugiere marcas de agua en imágenes y textos creados por robots

Experto en IA sugiere marcas de agua en imágenes y textos creados por robots

 

 

Uno de los mayores expertos en inteligencia artificial (IA), Gary Marcus, profesor emérito de psicología y ciencia neuronal de la Universidad de Nueva York, cree que va a ser necesario aplicar marcas de agua en las imágenes generadas por robots, y algo parecido también en los textos, para diferenciarlos así de los generados por humanos y evitar que se propague la desinformación.





En un artículo reproducido en el New York Times, Marcus, autor de dos libros dedicados a la IA, trata de evitar el tono catastrofista -“No soy de los que piensa que el planeta entero va a ser dominado por los robots”-, pero admite que le preocupa “lo que los actores negativos pueden hacer con estas cosas, porque nadie los controla”.

“¿Los beneficios superan a los costos? -se pregunta- La respuesta más honesta es que no lo sabemos. Algunos quisiéramos que esto se ralentice porque vemos sus costos a diario, pero eso no significa que no haya beneficios”, matiza, especialmente en los ámbitos técnicos, y advierte de paso contra quienes abogan por el ChatGPT como medio de ganar una especie de carrera con China.

Como remedio inmediato, Marcus sugiere alguna especie de gobernanza internacional sobre el mundo de la IA: “Lo que necesitamos es algo global, neutral, sin ánimo de lucro, con gobiernos y empresas participando en ello. Tenemos que coordinar esfuerzos sobre cómo crear reglas (…) Necesitamos crear un código sobre lo que es aceptable y quién es el responsable”.

Este organismo supranacional respondería a dudas razonables que ya se plantean, y pone los siguientes ejemplos: ¿Qué pasa si los chatbots mienten mucho?, ¿se puede permitir?, ¿quién será el responsable?; si la desinformación se expande ampliamente, ¿qué hacer? ¿quién asume los costos? ¿queremos que las empresas pongan dinero para crear herramientas que detecten la desinformación que ellas mismas crean?”.

Actualmente -advierte- “el costo de la desinformación es igual a cero”.

El experto advierte también contra el criterio absoluto de la eficacia a la hora de aceptar el uso masivo de la IA como un elemento para abaratar costos: “Estas herramientas nos pueden dar tremendos beneficios en lo referente a la productividad, pero también destruir el tejido social (en referencia a los eventuales puestos de trabajo amortizados). Si ese es el caso, ya no merecen la pena”, proclama.

Si no se avanza en una regulación rápida de la IA y los chatbots, Marcus pone un ejemplo de lo que eso puede significar en las próximas elecciones presidenciales en EEUU: “Si no hacemos nada, nadie va a creerse nada, y todas aquellas cosas que no quieran creer, lo van a rechazar atribuyéndolas a la IA. Con lo que los problemas sobre polarización y el discurso público no harán sino empeorar”.

Las advertencias de Marcus se suman a las de otros expertos que en los últimos días están alertando sobre el avance espectacular de la IA, hasta ahora prácticamente sin control.

Este lunes, en una entrevista con el mismo diario, el británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la IA, explicó que ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos.

EFE