Los expertos de Google están cuestionando la utilidad de la herramienta Bard AI. Los gerentes de producto y diseñadores se muestran escépticos sobre la herramienta, según muestran los mensajes de un grupo «oficial» de Discord. Google, de Alphabet y Discord llevan meses con la ejecución de un chat solo por invitación para usuarios habituales de Bard, el chatbot de Google impulsado por inteligencia artificial.
Los gerentes de producto, diseñadores e ingenieros de Cupertino utilizan el foro para debatir abiertamente sobre la efectividad y utilidad de la herramienta de IA, y algunos se preguntan si realmente valen la pena los enormes recursos que se dedican a su desarrollo, tal y como ha publicado Bloomberg.
Desde que Google lanzó Bard, su respuesta al popular bot ChatGPT de OpenAI, en marzo, ha agregado un flujo constante de nuevas características al producto, incluida la capacidad para analizar fotografías y generar respuestas a consultas en docenas de idiomas. El mes pasado, la compañía presentó su actualización más ambiciosa hasta el momento: conectar Bard a sus servicios más populares, como Gmail, Maps, Docs y YouTube. La compañía lanzó las integraciones de aplicaciones, comenzando en inglés, el 19 de septiembre.
A medida que Google ha integrado aún más a Bard en sus productos principales, la compañía también se ha visto acosada por quejas sobre la herramienta que genera hechos inventados y brinda consejos potencialmente peligrosos. El mismo día que la compañía introdujo las extensiones de la aplicación, también anunció un botón de búsqueda de Google en Bard para ayudar a las personas a verificar la veracidad de las respuestas generadas por IA de la herramienta con los resultados de su motor de búsqueda.
GOOGLE Y SU HEGEMONÍA EN LAS BÚSQUEDAS
«Mi regla general es no confiar en los resultados de LLM a menos que pueda verificarlos de forma independiente». Así escribía Dominik Rabiej, gerente senior de productos de Bard, en el chat de Discord el pasado mes de julio. Se refería a los grandes modelos de lenguaje, es decir, a los sistemas de inteligencia artificial entrenados en cantidades masivas de texto, que forman los componentes básicos de chatbots como Bard y ChatGPT de OpenAI. Rabiej escribió también que le «encantaría llegar al punto en que sea posible, pero aún no ha llegado».
«El mayor desafío en el que todavía estoy pensando es, ¿para qué son realmente útiles los LLM, en términos de utilidad?», se preguntaba por su parte la Googler Cathy Pearl, líder de experiencia de usuario de Bard, el pasado mes de agosto, y apuntillaba que estaba por determinar, «cómo realmente se marca la diferencia». Otros expertos han expresado su preocupación por las condiciones laborales de los miles de contratistas mal pagados que capacitan a Bard, basándose en lo que los trabajadores dicen que son instrucciones complicadas que se les pide que completen en minutos.
Google es de lejos el líder en búsquedas, el elemento financiero que le genera alrededor del 80% de los ingresos de la empresa matriz Alphabet.
Dentro y fuera de la empresa, el gigante de las búsquedas ha sido criticado por proporcionar información de baja calidad en una carrera por mantenerse al día con la competencia, mientras deja de lado las preocupaciones éticas. Para la empresa, garantizar el éxito de su IA Bard es de suma importancia. Google es de lejos el líder en búsquedas, el elemento financiero que le genera alrededor del 80% de los ingresos de la empresa matriz Alphabet.
A medida que la IA generativa irrumpió en escena, el dominio de las búsquedas de Google se vio desafiado, y algunos predijeron que las nuevas y populares herramientas de OpenAI (Chat GPT) y otras nuevas empresas podrían alterar la poderosa posición de Google en el mercado.
Dos participantes de la comunidad Bard de Google en la plataforma de chat Discord han filtrado detalles de las discusiones. Docenas de mensajes muestran cómo Bard está siendo utilizado y criticado por quienes mejor lo conocen, y muestran que incluso los líderes de la empresa encargados de desarrollar el chatbot tienen un conflicto sobre el potencial de la herramienta.
Al exponer su respuesta sobre las respuestas en las que no se puede confiar generadas los LLM, Rabiej sugirió limitar el uso de Bard por parte de las personas a «aplicaciones creativas de lluvia de ideas, o para codificar ,»¡ya que inevitablemente verificas si el código funciona!», decía el desarrollador.
LAS CRÍTICAS, ATAJADAS
El debate sobre las limitaciones y el potencial de Bard en el canal Discord de Google es una parte «rutinaria y no sorprendente» del desarrollo de productos, según ha aclarado Google en un comunicado. «Desde que lanzamos Bard como experimento, hemos querido escuchar los comentarios de las personas sobre lo que les gusta y cómo podemos mejorar aún más la experiencia», ha asegurado Jennifer Rodstrom, portavoz de la empresa. «Nuestro canal de discusión con personas que usan Discord es una de las muchas formas para hecerlo», ha afirmado.
En el lanzamiento de Bard, la compañía fue sincera sobre sus limitaciones, incluida la posibilidad de que la herramienta de IA genere mentiras que suenen convincentes. Cada vez que alguien utiliza Bard, Google incluye un descargo de responsabilidad en la herramienta que advierte de esta posibilidad: «Bard puede mostrar información inexacta u ofensiva que no representa las opiniones de Google». Afirman que se han hecho pruebas adversas (destinadas a investigar cómo respondería a posibles malos actores) internamente antes de lanzar Bard, y que esperan aprender más a medida que el público continúe usándolo.
se planteó el tema del Proyecto Nimbus, un contrato de 1.200 millones de dólares para Google y Amazon para suministrar al ejército de Israel herramientas de IA
El servidor Discord se inició el 10 de julio, cuando se enviaron miles de invitaciones a usuarios frecuentes de Bard fuera de la empresa. La descripción del servidor llama al canal la comunidad «oficial» para los usuarios de Bard, y el director senior de productos de esta IA, Jack Krawczyk, envió un vídeo selfie a la comunidad cuando se lanzó la herramienta en Europa. Casi 9.000 personas son miembros de la comunidad online, y algunos de los moderadores del chat son empleados de Discord. La mayoría de las discusiones giran en torno a animar a Bard y a la IA.
La cuestión es que llegaron a publicarse capacidades de la herramienta que eran directamente mentira, como que habían construido un ordenador de ajedrez cuántico usando Bard, o que podían usar el robot para rastrear la web en busca de datos sobre probabilidades de apuestas y ejecutar simulaciones complejas. Los empleados de Google tuvieron que intervenir en el chat de Discord para decir que Bard no tenía esas capacidades.
El foro ha sido criticado por ser un grupo focal no divulgado, o una comunidad de entusiastas de la IA, pero cerrado al fin y al cabo. No obstante, los usuarios plantearon temas espinosos, como que el gigante tecnológico trabaja mucho para mitigar las críticas públicas. En el chat se les critició por utilizar personas mal pagadas para afinar los resultado de la IA, y por los enormes costos del desarrollo de esta en aspectos medioambientales, o que a la herramienta le falta mucho entrenamiento y falsea muchas respuestas, incluso al pedirle que resuma correos electrónicos.
A mediados de julio, un miembro del grupo planteó el tema del Proyecto Nimbus, un contrato de 1.200 millones de dólares para Google y Amazon para suministrar al ejército de Israel herramientas de inteligencia artificial. Curiosamente, ante su preocupación sobre el papel de Google a la hora de permitir usos letales de la IA y rápidamente, fue enseguida excluido del grupo.