NoticiasAnalytics

Google I/O: Asómese al espectáculo de la inteligencia artificial

En Montain View, California, se celebra el evento anual de desarrolladores de Google (8-10 de mayo), un escenario de la tecnología que viene y que quiere ayudar a los usuarios a mejorar sus experiencias digitales.

Ha comenzado la conferencia anual para desarrolladores, Google I/O, que reúne a más de 7.000 desarrolladores en un evento durante tres días. I/O brinda una oportunidad para compartir algunas de las innovaciones más recientes de Google y mostrar cómo están ayudando a resolver algunos problemas en beneficio de nuestros usuarios.

Según publica la multinacional en su post oficial, “la necesidad por información útil y accesible es tan urgente hoy como cuando Google fue fundada, dos décadas atrás. Lo que ha cambiado es nuestra habilidad de organizar la información y resolver problemas reales y complejos con la ayuda de la inteligencia artificial. Hay una gran oportunidad para que la IA transforme diversos ámbitos”.

Dos años atrás, Google desarrolló una red neuronal que podía detectar signos de retinopatía diabética usando imágenes médicas del ojo. Este año, el equipo de IA demostró que su sistema de aprendizaje profundo puede utilizar algunas de esas mismas imágenes para predecir el riesgo de ataque o paro cardíaco de un paciente con un gran nivel de precisión.

Estos modelos de IA son capaces de predecir eventos médicos tales como readmisiones en hospitales y duración de las estancias mediante el análisis de las piezas de información integradas en los registros de salud desidentificados.

En el ámbito multimedia, los investigadores pudieron aislar voces y obtener subtítulos de cada persona por separado merced a una función bautizada “Looking to Listen”

Otro ejemplo es la nueva función de Smart Compose en Gmail. “Entendiendo el contexto de un correo electrónico, podemos sugerir frases que te ayuden a escribir más rápido y más eficientemente”, explica la compañía.

En Photos, ahora es más fácil compartir una foto en forma instantánea a través de sugerencias inteligentes. “Estamos también lanzando nuevas funcionalidades que te permiten iluminar rápidamente una foto, darle un toque de color o incluso colorear imágenes antiguas en blanco y negro”.

El Asistente de Google también viene mejorando en cada edición de I/O, ahora más visual, conversacional y útil. “Gracias a los progresos en entendimiento del lenguaje, pronto serás capaz de tener una conversación natural con el Asistente de Google sin necesidad de repetir ‘OK Google’ para cada pregunta. También estamos haciendo que el Asistente sea más visualmente útil con nuevas experiencias para pantallas y teléfonos inteligentes. En dispositivos móviles, te ofreceremos una vista rápida de tu día con sugerencias basadas en la ubicación, la hora del día y las interacciones recientes. Y estamos trayendo el Asistente de Google a la navegación en Google Maps, para que puedas obtener información mientras mantienes tus manos en el volante y tus ojos en la carretera”.

Algún día, el Asistente de Google podrá ayudar al usuario con las tareas que aún requieren una llamada telefónica, como pedir una cita en la peluquería o verificar el horario de apertura de una tienda. “Llamamos a esta nueva tecnología Google Duplex. Todavía es temprano, y estamos trabajando en que la experiencia sea correcta, pero hecho adecuadamente creemos que esto ahorrará tiempo a las personas y generará valor para las pequeñas empresas”.

Gracias a Google Lens, los mapas ahora te pueden decir si el negocio que estás buscando está abierto, cuán ocupado está y si es fácil encontrar estacionamiento antes de llegar. “Lens te permite simplemente apuntar tu cámara y obtener respuestas sobre todo, desde el edificio que tienes enfrente, el póster del concierto que viste, hasta la lámpara que te gustaba en la ventana de una tienda.

Computing 793
LO + LEÍDO