Views: 98
Podemos ter certeza de que uma inteligência artificial autodidata realmente “vê” o que queremos ver?
Courtesy UiO by Eivind Torgersen Carros sem motorista são talvez a coisa mais óbvia a se pensar quando se trata de inteligência artificial (IA). Quando falamos sobre o que é bom, e quando falamos sobre o que pode dar errado sem uma pessoa atrás do volante.
Agora, a cada 20 minutos, um pequeno ônibus sem motorista passa pelo calçadão do porto de Oslo. Com uma velocidade máxima de 25 quilômetros por hora, transporta passageiros de Vippetangen para Kontraskjæret.
Carros, é claro, são ensinados a andar no trânsito, mas o mais revolucionário é que eles aprendem enquanto dirigem e, portanto, se tornam motoristas melhores.
Inteligência artificial no hospital e consultório médico.
Longe de qualquer inteligência artificial tão visível quanto um carro que pudesse ser encontrado no trânsito. A IA não será apenas capaz de substituir pessoas.
Uma inteligência artificial e autoaprendizagem também pode substituir os algoritmos de dados tradicionais, por exemplo, nos scanners de ressonância magnética que criam imagens do seu cérebro.
No ano passado, a Food and Drug Administration (FDA) dos Estados Unidos aprovou o uso de inteligência artificial para revelar o distúrbio da retinopatia diabética. Esta é uma doença da retina que afeta diabéticos.
– Isso é revolucionário, diz o matemático Anders Hansen.
– Isso significa que agora isso pode ser usado em um contexto comercial.
Hansen é professor da Universidade de Oslo, mas passa a maior parte do tempo na Universidade de Cambridge, onde dirige seu próprio grupo de pesquisa em inteligência artificial.
Os pacientes diabéticos podem então ir à clínica e tirar uma foto do globo ocular. Mas não é um médico ou oftalmologista que analisa a imagem. É um algoritmo de inteligência artificial que entrega uma resposta baseada no que aprendeu a procurar.
Ou a córnea é saudável ou é afetada pela retinopatia diabética.
“É melhor do que eu, que sou especialista em córnea muito experiente”, disse o inventor Michael Abramhoff ao jornal on-line NPR.
Não sei o que a inteligência artificial faz
A inteligência artificial que avalia as imagens dos olhos do diabético é, portanto, precisa o suficiente para o FDA pensar que está tudo bem. Isto é, torna-a pelo menos tão boa quanto uma avaliação humana.
Mas a inteligência artificial também pode se comportar de maneiras que um ser humano jamais faria.
– Nós realmente não sabemos o que a inteligência artificial faz, diz Anders Hansen.
Sua pesquisa é sobre mostrar o que elas (IA) realmente fazem.
– E pode parecer que elas (IA) estão observando coisas completamente diferentes do que o homem pode observar.
Aprendizagem Profunda
Isso ocorre porque a inteligência artificial difere de um algoritmo de dados tradicional.
O último é simplesmente uma receita que entrega uma resposta quando recebe informação. Uma resposta completamente predeterminada e dependendo do que você disse para fazer.
Uma inteligência artificial também é um algoritmo, mas muito mais avançado.
O que é diferente sobre um algoritmo de inteligência artificial é aprender com a experiência anterior. Com base nesse aprendizado, ele precisará de uma contribuição e fará outra coisa, diz Hansen.
Primeiro, passa por um campo de treinamento intensivo. Lá, esperamos ensinar o que você quer que seja.
– Quando a aprendizagem é feita, tem-se um algoritmo acabado. Esse algoritmo pode aprender mais e mais, mas é o primeiro aprendizado que é mais importante. Essa é a grande diferença, diz Hansen.
Desde 2012, é o que se chama de aprendizagem profunda, que tem sido o método dominante de ensinar inteligência artificial. E aí, nessa profundidade, não é tão fácil saber o que está acontecendo.
– Não sabemos muito bem como o mecanismo de aprendizagem ocorre na inteligência artificial, e é isso que estamos tentando descobrir, diz Hansen.
Não é necessariamente assim tão fácil.
Foco para problemas
Hansen e seus colegas colocaram inteligências artificiais em amostras relativamente simples para ver como objetos de aprendizagem podem ser. Às vezes, eles vêm com respostas bastante estranhas, como quando reconhecer animais diferentes ou quando são apresentadas imagens em preto e branco com faixas horizontais e verticais.
Uma variante um pouco mais complicada é uma inteligência artificial que foi treinada para o que sera aprendido ao determinar se uma mancha é inofensiva ou se pode ser maligna. Apenas analisando uma foto.
Então é muito importante que ela leia a figura corretamente. Apenas o mesmo é absolutamente necessário em outro campo de desenvolvimento de inteligência artificial, reconhecimento de fala. Se você vai obter uma resposta sensata de Peter ou Alexa no seu celular, ela deve primeiro entender o que você está realmente pedindo para ela fazer.
Testes mostram 0 que é artificial
A inteligência, na mancha da pele está considerada como correta praticamente. O estranho é que é muito segura mesmo quando está errada. E isso parece bastante arbitrário exatamente por que é quando está errada.
Quando os cientistas inclinaram apenas um pouquinho a imagem, a inteligência artificial pode mudar de ideia. De estar muito confiante de que a mancha era inofensiva, de estar muito certa do contrário.
– Não entendemos bem o que conseguiu reconhecer, porque a imagem é exatamente a mesma, diz Hansen.
– O que é a nossa tese é que existe uma estrutura falsa na imagem. Algo que se encontra na imagem e que o homem não pode perceber, mas que a máquina percebe e encontra, diz ele.
Como sabemos o que isso ensina?
Essa estrutura falsa não será detectada por um olho humano.
– Para a máquina, a imagem não é diferente dos números que entram, Hansen explica.
Por isso, não é fácil descobrir os possíveis erros para nós que estamos lendo imagens de uma maneira completamente diferente.
Mas para mostrar qual é o problema com estruturas falsas, ainda precisamos usar um exemplo que também podemos ver.
Suponha que você aprenda uma língua estrangeira e veja uma coleção de fotos que são todas acompanhadas pelas palavras dessa linguagem para “bicicleta”. Todas as imagens mostram bicicletas em diferentes variedades, mas também estão todas equipadas com uma linha verde.
Após este processo de treinamento, você ou a inteligência artificial são expostos a imagens semelhantes e respondem a cada vez “bicicleta”.
Mas você pode ter certeza de que é uma moto que será conhecida novamente? E se a inteligência artificial ligar a palavra a “linha verde horizontal”. Ou apenas “linha verde”. Ou apenas “derrame”. Ou algo completamente diferente, mesmo.
A linha verde é um exemplo de uma estrutura falsa. Também pode haver outras nas imagens de bicicletas, coisas que não são visíveis para nós, mas que uma inteligência artificial detecta.
Há algo assim que Hansen e seus colegas acham que está escondido nas imagens da mancha. Algo que faz com que a inteligência artificial mude a percepção.
Este é apenas um dos muitos exemplos: Hansen aponta onde uma inteligência artificial parece cometer erros simples. Erros que nós humanos nunca faríamos.
“É bastante óbvio que a inteligência artificial” pensa “completamente diferente do cérebro humano”, diz Hansen.
Ambiente de Inteligência artificial dividido
Como a inteligência artificial é tão diferente, o comportamento não humano também pode ter outras conseqüências infelizes. Por exemplo, pode ser enganado.
Isso pode potencialmente ser explorado por fraudadores, por exemplo, em cuidados de saúde ou em questões de seguros.
Tais incertezas levaram, segundo Hansen, a uma grande divisão na comunidade de pesquisa que busca inteligência artificial (IA) . Alguns argumentaram que o aprendizado de máquina é atualmente comparável à alquimia medieval. Algo que fez outros se sentirem insultados mortalmente.
Anders Hansen está entre os que pedem cautela.
– Agora temos que pensar sobre isso antes de apresentá-lo em larga escala, diz ele. – Se podemos detectar erros em imagens muito simples, como será em imagens mais complexas?
Isso não significa que ele irá parar ou desacelerar a pesquisa sobre inteligência artificial. Ele acha que não é possível.
Por exemplo, a Decisão de Diabetes do FDA mostra que a inteligência artificial está em pleno andamento nos serviços de saúde.
– O FDA é sério. Ao aprovar o uso de inteligência artificial, baseia-se em uma investigação científica adequada. Da mesma forma que uma droga que sai para o mercado, diz Hansen.
O teste da mancha acima mencionado também pode ser considerado como socialmente benéfico, porque é pelo menos tão preciso quanto um ser humano. Embora também falhe algumas vezes. E mesmo se você não entender completamente porque está errado.
– Então, encontramos um algoritmo de reconhecimento simples que funciona bem o suficiente para fins práticos, mesmo que não seja perto do que uma pessoa pode fazer.
Pode acontecer amanhã ou daqui a 500 anos
O caminho a seguir é determinado não apenas por matemáticos e programadores. É tanto sobre política, privacidade e interesses comerciais.
– Os militares dos EUA estão gastando enormes quantias nisso agora.
– A inteligência artificial está definitivamente aqui para ficar, diz Hansen.
Mas ele não ousa prever quão rápido ou em que direção a estrada irá.
– Não sabemos se haverá um grande avanço amanhã ou se temos que esperar 500 anos para o próximo passo.
Pessoa de contacto: Anders Hansen, professor do Departamento de Matemática
Artigo relacionado: Nokia cria parceria estratégica para redes 5G e IoT no Japão
Faça um comentário