A inteligência artificial agora é inteligente o suficiente para saber quando não pode ser confiável

Essas redes neurais de aprendizado profundo são projetadas para imitar o cérebro humano ao pesar uma infinidade de fatores em equilíbrio entre si, identificando padrões em massas de dados que os humanos não têm a capacidade de analisar.

Embora a Skynet ainda esteja um pouco distante, a IA já está tomando decisões em áreas que afetam vidas humanas, como direção autônoma e diagnóstico médico, e isso significa que é vital que sejam o mais precisas possível.

Para ajudar nesse objetivo, este sistema de rede neural recém-criado pode gerar seu nível de confiança, bem como suas previsões.

A inteligência artificial agora é inteligente o suficiente para saber quando não pode ser confiável
Foto: (Reprodução/ Internet)

Essa autoconsciência de confiabilidade recebeu o nome de Deep Evidential Regression e baseia sua pontuação na qualidade dos dados disponíveis com os quais deve trabalhar – quanto mais precisos e abrangentes forem os dados de treinamento, mais provável será que as previsões futuras vão dar certo.

Saiba mais: Conheça as modificações recentes na PS Store

A equipe de pesquisa o compara a um carro que dirige sozinho, com diferentes níveis de certeza sobre se deve passar por um cruzamento ou esperar, apenas no caso, se a rede neural estiver menos confiante em suas previsões.

A inteligência artificial agora é inteligente o suficiente para saber quando não pode ser confiável
Foto: (Reprodução/ Internet)

A classificação de confiança inclui até dicas para aumentar a classificação (ajustando a rede ou os dados de entrada, por exemplo).

Embora proteções semelhantes tenham sido construídas em redes neurais antes, o que a diferencia é a velocidade com que funciona, sem demandas excessivas de computação – pode ser concluída em uma corrida pela rede, em vez de várias, com um nível de confiança gerado em ao mesmo tempo que uma decisão.

Há novos sistemas? São confiáveis?

Os pesquisadores testaram seu novo sistema fazendo com que ele avaliasse as profundidades em diferentes partes de uma imagem, da mesma forma que um carro autônomo pode avaliar a distância.

Leia também: Saiba como proteger sua propriedade intelectual

A rede se comparou bem às configurações existentes, ao mesmo tempo em que estimou sua própria incerteza – os momentos em que era menos certa foram, de fato, os momentos em que errou nas profundidades.

A inteligência artificial agora é inteligente o suficiente para saber quando não pode ser confiável
Foto: (Reprodução/ Internet)

Como um bônus adicional, a rede foi capaz de sinalizar os momentos em que encontrou imagens fora de sua área de atuação normal (muito diferentes dos dados em que foi treinada) – o que em uma situação médica pode significar pedir a um médico para tomar um segundo.

Fique por dentro: Agradecer pode tornar seu cérebro mais altruísta

Mesmo que uma rede neural esteja certa 99% das vezes, esse 1% ausente pode ter consequências graves, dependendo do cenário.

Os pesquisadores afirmam estar confiantes de que seu novo teste de confiança simplificado pode ajudar a melhorar a segurança em tempo real, embora o trabalho ainda não tenha sido revisado por pares.

Traduzido e adaptado por equipe Saibamais

Fonte: ScienceAlert