ChatGPT y Gemini, pierden la cabeza el mismo día

La principal utilidad de usar un chatbot como el de ChatGPT es precisamente conseguir respuestas rápidas y precisas a nuestras preguntas. En lugar de acabar buscando en Google y estar horas entre diversas páginas web, podemos acabar preguntando lo mismo a Bing, ChatGPT y otras IA de este tipo. Aunque todos hemos tenido a ChatGPT como la mejor de todas ni esta ni Google Gemini se han podido librar de cometer fallos, como llegar generar imágenes de “nazis de otras razas“.

Google anunció Gemini 1.0 a finales de 2023, siendo catalogada como el modelo de IA más avanzado que tenía la compañía. Como imaginarás, Gemini se enfrentaría a GPT-4 de OpenAI y por tanto, podíamos considerarlo como el rival de ChatGPT. Tal y como pudimos ver, se segmentaba en varias versiones como Gemini Nano, Gemini Pro y Gemini Ultra, diferenciándose en la complejidad del modelo y la capacidad de hacer diversas tareas. Esta IA es multimodal, pudiendo generar y combinar información de todo tipo como texto, audio, imágenes, vídeo y código de programación.

Google Gemini comete fallos y errores a la hora de representar humanos de distintas épocas

En las pruebas que vimos de Gemini vs GPT-4, la IA de Google ganaba prácticamente en todos los casos, siendo un gran inicio para esta misma. Aunque ya habíamos visto resultados previamente, ahora nos encontramos con un caso bastante único, pues probando la IA a la hora de generar personas de distintas épocas, ha cometido algunos errores garrafales. Por ejemplo, cuando se pedía generar una imagen de los “Padres fundadores de los Estados Unidos“, aparecía un hombre de color en una de las fotos, el cual no se parecía a los originales.

A la hora de pedir generar una mujer americana, muestran mujeres pelirrojas, blancas y de color, mostrando mucha diversidad. Cuando se ha pedido generar senadores de EE.UU. en los años 1800, nos encontramos indios americanos, mujeres de color y un hombre asiático. Sin embargo, el resultado que más critica ha generado ha sido cuando ha representado a soldados alemanes de la época nazi como personas de color y asiáticas. Un representante de Google ya se ha pronunciado al respecto afirmando que efectivamente, la IA Gemini genera resultados poco exactos a la hora de crear imágenes históricas. La compañía indica que están trabajando en solventarlo.

ChatGPT no se libra de cometer fallos, acaba volviéndose loco y dice cosas sin sentido

ChatGPT loco

No solo Google Gemini ha sufrido de imprecisiones, pues el mismísimo ChatGPT ha acabado peor aún, perdiendo la cabeza y volviéndose loco, mezclando varios idiomas y diciendo cosas sin sentido. En los ejemplos que ha mostrado Sean Mcguire en X, podemos ver a un ChatGPT que habla en inglés, pero comete fallos y va intercambiándolo con palabras en español y otros idiomas. Por ejemplo, podemos leer un “cada type requires un bitta lámpara bajo punto”, diciendo en una respuesta posterior que estaba combinando Spanglish.

Nos hace gracia ver otras respuestas de la IA más avanzada del mundo diciendo “Muchas gracias for your understanding” y lo peor viene después. Llega un punto donde ChatGPT repite palabras constantemente sin generar nada más, por lo que si tuviera salud mental la inteligencia artificial, podríamos decir que no está pasando por un buen momento. Lo más curioso de todo, es que ambos sucesos que ocurrieron en ChatGPT y Gemini coinciden en la misma fecha, 21 de febrero de 2024.

source

Avatar de Paco Gil
La IA es una tecnología en constante evolución que tiene el potencial de transformar muchos aspectos de nuestra vida.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *