Gemini de Google no responderá a consultas sobre las elecciones

El chatbot de inteligencia artificial de Google se negará por completo a dar respuestas relacionadas con las elecciones, que se celebran este año en diferentes partes del mundo, para evitar cualquier grado de desinformación o agitación política.
Logo de Gemini de Google
Más de la mitad de la población mundial será parte de algún proceso electoral este año.Cortesía: Google

Como muchos de nosotros, Gemini de Google está cansado de hablar de política. Reuters informó recientemente que la gigante tecnológica decidió que su chatbot de inteligencia artificial (IA) no responda a las preguntas sobre las elecciones que se lleven a cabo en el mundo durante este año y que, en su lugar, dirija a los usuarios hacia el famoso buscador de la compañía.

Google ya había planeado hacer esto cuando el chatbot Gemini aún se llamaba “Bard”. Pero este martes, la empresa reiteró que “como preparación para las numerosas elecciones que tendrán lugar en todo el mundo en 2024 y por precaución, restringiremos las consultas relacionadas con ellas para las que Gemini devolverá sus respuestas”.

Es así que, ayer, la compañía confirmó a Reuters que esas restricciones habían entrado en vigor. Actualmente, las consultas sobre cuestiones electorales tienden a arrojar la negativa: “Todavía estoy aprendiendo a responder a esta pregunta. Mientras tanto, prueba el buscador de Google”.


Cabeza humana hecha de piezas de rompecabezas 3D rojas, azules, amarillas y verdes sobre un fondo verde
Apenas dos meses después de que Alphabet hiciera público su modelo de IA Gemini, lanza una nueva versión que puede manejar varias veces más entradas de audio, video y texto que GPT-4.

Evitar la controversia en cuestiones políticas

El plan original de Google en diciembre era probablemente el de desactivar la información electoral para que Gemini evitara cualquier agitación política. Aunque eso no resultó del todo. Hace varias de semanas, cuando se le pedía al chatbot que generara imágenes de personas, Gemini añadía discretamente requisitos de diversidad a la solicitud; esta práctica dio lugar a resultados ofensivos e históricamente inexactos, junto con una negativa general a crear representaciones visuales de gente blanca. El mes pasado, esto le valió a Google una cobertura en las esferas informativas conservadoras del tipo “¡La IA woke de Google odia a los blancos!”. Sundar Pichai, CEO de la empresa, calificó las respuestas “tendenciosas” de la IA como “completamente inaceptables” y, por ahora, la generación de imágenes de personas está desactivada mientras Google trabaja en ello.

El inicio de la primera vuelta de las elecciones en Estados Unidos en la era de la inteligencia artificial ya dio lugar a nuevas formas de desinformación y fake news, y es de suponer que Google quiera mantenerse al margen de todo ello.

Además de Estados Unidos, se llevarán a cabo elecciones nacionales en diversos países, como Panamá, República Dominicana, México, Uruguay y Venezuela, sin olvidar Sudáfrica e India.

Por esta razón, es más que comprensible que los gobiernos en el mundo estén tomando las medidas necesarias para evitar que la IA se apodere de las urnas al difundir información falsa y destinada a favorecer a algún partido o representante político, estableciendo controles y medidas de protección ante dicha tecnología.

En el caso de India, la mayor democracia del mundo, los funcionarios han pedido a las empresas tecnológicas del sector de la IA que, antes de lanzar sus herramientas “poco fiables” o en fase de prueba, primero soliciten la aprobación del gobierno para hacerlas públicas y que, además, señalen de manera clara que existe la posibilidad de que se entreguen respuestas erróneas a las consultas hechas por los usuarios, de acuerdo con la información de Reuters.


Transparencia México
Transparencia México es una iniciativa de Google que engloba herramientas, entrenamientos y compromisos para fortalecer la democracia a través de la tecnología y la innovación.

Recordemos que a mediados de enero, con el fin de evitar alterar el proceso regular de las votaciones o la tergiversación y distorsión de la información electoral, OpenAI realizó ajustes en sus políticas de uso para prohibir que herramientas como ChatGPT, Dall-E y otros de sus modelos de IA se aprovechen con fines políticos, lo que incluye la creación de campañas o iniciativas de comunicación, así como el diseño de bots que pretendan ser candidatos o autoridades gubernamentales con la intención de influir en las decisiones de los votantes.

Por ahora, solo resta saber cuál será la postura o modificaciones técnicas que har�� Microsoft en su respectivo chatbot de IA, Copilot, para contrarrestar los efectos negativos que fueron revelados en diciembre del año pasado, como parte de una investigación compartida en exclusiva con WIRED, que resaltaba que este modelo respondía a las consultas sobre las elecciones con mentiras, desinformación, datos desactualizados e incorrectos, además de teorías conspirativas.

Artículo publicado originalmente en Ars Technica. Adaptado por Andrei Osornio.