As novas
técnicas que captam relações semânticas entre as palavras estão a tornar as
máquinas melhores para entender a linguagem natural. Estamos acostumados a
assistentes de IA – Alexa playing music in the living room, Siri setting alarms
on my phone, mas estas frases e ordens não corresponderam ao que alegavam ser
inteligente.
Estes
sistemas deveriam ter simplificado as nossas vidas. Contudo, mal sentimos a sua
presença. Curiosamente, este é um ano que se promete haver muitas novidades.
Alguns avanços das tecnologias estão prestes a expandir o repertório do seu
assistente digital.
Em junho
de 2018, investigadores do OpenAI desenvolveram uma técnica que treina a IA em
texto não rotulado para evitar a despesa e o tempo de categorizar e marcar
todos os dados manualmente. Alguns meses depois, uma equipa do Google revelou
um sistema chamado BERT que aprendeu a prever palavras perdidas estudando
milhões de frases. Num teste de múltipla escolha, ele fez tão bem quanto os
humanos em preencher lacunas.
New
techniques that capture semantic relationships between words are making
machines better at understanding natural language. We are used to AI assistants
- Alexa playing music in the living room, Siri setting alarms on my phone, but
these phrases and orders did not correspond to what they claimed to be smart.
These systems
should have simplified our lives. However, we barely feel his presence.
Interestingly, this is a year that promises to have many new features. Some
advances in technology are about to expand your digital assistant's repertoire.
In June 2018,
OpenAI researchers developed a technique that trains AI in unlabeled text to
avoid the expense and time of manually categorizing and marking all data. A few
months later, a Google team unveiled a system called BERT that learned to
predict missed words by studying millions of sentences. In a multiple-choice
test, he did as well as humans to fill in the gaps.
However, Google has already surprised
you with its Google Duplex, remember?
https://www.youtube.com/watch?v=D5VN56jQMWM&feature=emb_title
Sem comentários:
Enviar um comentário