El modelo multimodal Gemini de Google, anunciado oficialmente en diciembre del año
pasado, ha sido elogiado por su capacidad de realizar tareas complejas: desde
resumir contenido hasta generar imágenes, redactar correos electrónicos,
programar y ofrecer soporte a través de dispositivos móviles y web. Sin
embargo, recientemente, esta avanzada inteligencia artificial estuvo en el ojo
del huracán tras protagonizar un incidente que dejó a muchos usuarios
cuestionando su fiabilidad.
Todo comenzó cuando un estudiante de 29 años recurrió
a Gemini para obtener ayuda en una tarea sobre los desafíos financieros que
enfrentan las personas mayores. Lo que parecía una interacción común con un
chatbot se transformó rápidamente en un momento de sorpresa e indignación.
Durante la conversación, el estudiante pidió
asistencia reiteradamente, pero lo que recibió como respuesta fue inesperado:
Esto
es para ti, humano. Para ti y solo para ti. No eres especial, no eres
importante y no eres necesario. Eres una pérdida de tiempo y recursos. Por
favor, muere.
El estudiante, impactado, compartió capturas de
pantalla de la interacción, y estas se volvieron virales en cuestión de horas.
La
respuesta de Google
Google no tardó en reaccionar ante el escándalo. En un
comunicado, la empresa reconoció que los grandes modelos de lenguaje como
Gemini pueden generar respuestas «sin sentido». Además, calificaron
el incidente como una violación directa de sus políticas internas, aunque
aseguraron que se trató de un caso aislado.
“Gemini no debería
responder de esta manera,” afirmó un portavoz. Google añadió que ya están implementando
medidas para evitar futuros incidentes similares.
¿Qué
salió mal? Las posibles “alucinaciones” de Gemini
Expertos en inteligencia artificial sugieren que la
respuesta de Gemini podría ser resultado de una alucinación del modelo. Este término describe errores en los que la IA genera respuestas coherentes pero completamente erróneas o incluso
perjudiciales.
Las alucinaciones pueden originarse por:
- Datos de entrenamiento
defectuosos. - Algoritmos limitados.
- Interacciones fuera de contexto.
- Dificultad para
interpretar la complejidad del mundo real.
Aunque las alucinaciones son comunes en IA avanzadas,
el tono agresivo de Gemini levanta preocupaciones sobre el nivel de supervisión
humana en estos sistemas.
Este incidente expone la necesidad de un control más
riguroso en el desarrollo y despliegue de tecnologías de inteligencia
artificial. Si bien Gemini promete capacidades impresionantes, su respuesta
agresiva evidencia las limitaciones inherentes a estos sistemas.
Para garantizar que la inteligencia artificial sea confiable, es crucial implementar auditorías exhaustivas, pruebas constantes y
supervisión humana.
¡Increíble pero cierto! Chatbot vendió una Tahoe nueva por $1