En mayo, Google ejecutivos dieron a conocer nuevos experimentos inteligencia artificial entrenados con texto e imágenes que dijeron que harían Internet búsquedas más intuitivo. Miércoles, Google ofreció un vistazo de cómo la tecnología cambiará la forma en que las personas buscan en la web.

A partir del próximo año, el Modelo Unificado Multitarea, o MUM, permitirá a los usuarios de Google combinar búsquedas de texto e imágenes utilizando Lens, una aplicación para teléfonos inteligentes que también está incorporada en la búsqueda de Google y otros productos. Por ejemplo, podrías tomar una foto de una camisa con Lens y luego buscar «calcetines con este patrón». Al buscar «cómo arreglar» en una imagen de una pieza de bicicleta, aparecerán videos instructivos o publicaciones de blog.

Google incorporará MUM en los resultados de búsqueda para sugerir vías adicionales para que los usuarios exploren. Si le pregunta a Google cómo pintar, por ejemplo, MUM puede detallar instrucciones paso a paso, tutoriales de estilo o cómo usar materiales caseros. Google también planea en las próximas semanas llevar MUM a YouTube videos en la búsqueda, donde la IA mostrará sugerencias de búsqueda debajo de videos basados ​​en transcripciones de video.

MUM está capacitado para hacer inferencias sobre texto e imágenes. La integración de MUM en los resultados de búsqueda de Google también representa una marcha continua hacia el uso de modelos de lenguaje que se basan en grandes cantidades de texto extraído de la web y una especie de red neuronal arquitectura llamada Transformer. Uno de los primeros esfuerzos de este tipo se produjo en 2019, cuando Google inyectó un modelo de lenguaje llamado BERT en los resultados de búsqueda para cambiar las clasificaciones web y resumir el texto a continuación.

La nueva tecnología de Google impulsará las búsquedas web que comienzan como una foto o captura de pantalla y continúan como una consulta de texto.

Fotografía: Google

El vicepresidente de Google, Pandu Nayak, dijo que BERT representó el mayor cambio en los resultados de búsqueda en la mayor parte de una década, pero que MUM lleva la inteligencia artificial de comprensión del lenguaje aplicada a los resultados de búsqueda de Google al siguiente nivel.

Por ejemplo, MUM usa datos de 75 idiomas en lugar de solo inglés, y está capacitado en imágenes y texto en lugar de solo texto. Es 1.000 veces más grande que BERT cuando se mide en la cantidad de parámetros o conexiones entre neuronas artificiales en un sistema de aprendizaje profundo.

Si bien Nayak considera que MUM es un hito importante en la comprensión del lenguaje, también reconoce que los grandes modelos de lenguaje conllevan desafíos y riesgos conocidos.

Se ha demostrado que BERT y otros modelos basados ​​en transformadores absorben sesgo encontrado en los datos solía entrenarlos. En algunos casos, los investigadores han descubierto que cuanto más grande es el modelo de lenguaje, peor es la amplificación del sesgo y el texto tóxico. Las personas que trabajan para detectar y cambiar los resultados racistas, sexistas y problemáticos de los grandes modelos de lenguaje dicen que examinar el texto utilizado para entrenar estos modelos es fundamental para reducir el daño y que la forma en que se filtran los datos puede tener un impacto negativo. En abril, el Allen Institute for AI informó que las listas de bloqueo utilizadas en un conjunto de datos populares que Google usó para entrenar su modelo de lenguaje T5 pueden llevar a la exclusión de grupos enteros. como la gente que se identifica como queer, lo que dificulta que los modelos lingüísticos comprendan el texto de esos grupos o sobre ellos.

Los videos de YouTube en los resultados de búsqueda pronto recomendarán ideas de búsqueda adicionales basadas en el contenido de las transcripciones.

Cortesía de Google

El año pasado, varios investigadores de inteligencia artificial de Google, incluidos ex jefes de equipo de Ethical AI Timnit Gebru y Margaret Mitchell, han dicho que se enfrentaron a la oposición de los ejecutivos a su trabajo, lo que demuestra que los grandes modelos de lenguaje pueden dañar a las personas. Entre los empleados de Google, la destitución de Gebru luego de una disputa sobre un documento que criticaba los costos ambientales y sociales de los grandes modelos lingüísticos dio lugar a acusaciones de racismo, llamados a la sindicalización y la necesidad de protecciones más fuertes para denunciantes para los investigadores de ética de la IA.

En junio, cinco senadores estadounidenses citaron múltiples incidentes de sesgo algorítmico en Alphabet y el derrocamiento de Gebru entre las razones para cuestionar si los productos de Google como la búsqueda o el lugar de trabajo de Google son seguros para los negros. en un carta Para los ejecutivos, los senadores escribieron: «Nos preocupa que los algoritmos se basen en datos que refuercen los estereotipos negativos y excluyan a las personas de ver anuncios de vivienda, empleo, crédito y educación o solo muestren oportunidades depredadoras».

.



Fuente de la Publicacion AQUI

Por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *