Se inventó que eran unos estafadores – FGJ MULTIMEDIOS

0
120


Título: Una empresa de energía solar ha demandado a Google por la IA de su buscador: se inventó que eran unos estafadores

Contenido:
Matías S. Zavia
El buscador de Google ha experimentado una notable evolución desde su lanzamiento. Con la implementación de la función “AI Overviews”, Google ha transformado su plataforma en un chatbot de inteligencia artificial capaz de responder a las consultas de los usuarios sin necesidad de que estos hagan clic en un enlace. Sin embargo, esta tecnología, basada en grandes modelos de lenguaje, opera de manera probabilística, lo que puede dar lugar a la generación de respuestas incorrectas cuando la información no está claramente disponible.
Una mentira creíble. En este contexto, una respuesta generada por AI Overviews ha llevado a Google a enfrentar una demanda judicial. La empresa demandante es Wolf River Electric, una compañía de energía solar situada en Minnesota. El litigio se originó a raíz de una supuesta demanda que, en realidad, nunca existió.
Los abogados de Wolf River Electric sostienen que, al buscar “demanda contra Wolf River Electric” en Google, la inteligencia artificial propagó afirmaciones difamatorias, incluyendo que la firma había sido demandada por el fiscal general de Minnesota por “prácticas de venta engañosas”, tales como proporcionar información falsa a los clientes sobre ahorros y engañar a propietarios para que firmaran contratos con tarifas ocultas.
La inteligencia artificial, con una confianza inusitada, mencionó a cuatro directivos de la empresa por su nombre: Justin Nielsen, Vladimir Marchenko, Luka Bozek y Jonathan Latcham, e incluso mostró una fotografía de Nielsen junto a las acusaciones infundadas. Para respaldar sus afirmaciones, la IA citó cuatro enlaces: tres artículos de noticias y un comunicado del fiscal general, aunque ninguno hacía referencia a una demanda contra Wolf River Electric.
No es la primera vez. Este tipo de error, conocido como “alucinación”, es común en los modelos de lenguaje, que generan respuestas al combinar palabras basadas en predicciones, propagando a veces errores iniciales hasta convertirlos en afirmaciones creíbles, similar a un juego de teléfono estropeado.
Cuando Google implementó AI Overview en su buscador, la compañía se vio obligada a retirar esta función de ciertas búsquedas, especialmente en temas de recetas y nutrición, debido a recomendaciones absurdas como añadir pegamento a la pizza o consumir piedras para mantener la salud.
Una respuesta por pregunta. Wolf River Electric sostiene que, como resultado de lo divulgado por AI Overviews, varios clientes han cancelado contratos valorados en hasta 150,000 dólares. Las respuestas de AI Overviews son personalizadas y varían de una consulta a otra, lo que no inquieta a los abogados de la empresa, quienes consideran que el problema podría repetirse. “Esta demanda no se trata únicamente de defender la reputación de nuestra empresa; se trata de defender la equidad, la verdad y la responsabilidad en la era de la inteligencia artificial”, declaró Nicholas Kasprowicz, asesor jurídico de la firma.
David contra Goliat. El caso, presentado en marzo en un tribunal estatal, ha sido elevado a un tribunal federal de Estados Unidos. Este proceso podría establecer un precedente sobre la responsabilidad de las empresas tecnológicas en relación con la difusión de desinformación generada por sus inteligencias artificiales. La resolución de este asunto podría representar un punto de inflexión para las compañías de IA, que han intentado eludir la responsabilidad por las consecuencias de sus modelos de lenguaje.
Google, por su parte, ha calificado el incidente como un error menor. “La gran mayoría de nuestras AI Overviews son precisas y útiles, pero como ocurre con cualquier nueva tecnología, pueden suceder errores”, explicó un portavoz de la compañía. Google afirma haber tomado medidas rápidas para resolver el problema tan pronto como tuvo conocimiento de él, en línea con sus esfuerzos recientes por permitir que los usuarios corrijan errores en la IA.
Imagen | Google
En Xataka |

Editado con FGJ CONTENT REWRITER

Te podría interesar:



Source link