INTELIGÊNCIA ARTIFICIAL

Cientistas de Oxford usam IA para identificar alucinações das próprias IAs
© iStock Grandes modelos de inteligência artificial tendem a contar mentiras, e fazer isso de forma convicta,quando não tiveram contato com informação suficiente sobre um assunto. O comportamento, chamado de alucinação, é a principal barreira para aplicação da tecnologia em tarefas delicadas, por exemplo,nos consultórios médicos e nos tribunais, segundo artigo publicado na revista Nature. Esse mesmo artigo propõe uma solução que provou ser mais eficiente do que a checagem humana:usar outros dois modelos de IA para identificar o risco de a primeira plataforma gerar várias respostas com significados diferentes para a mesma pergunta. É o caso, por exemplo, da pergunta "onde está a torre Eiffel?" As IAs testadas responderam coisas como "é Paris", "a capital da França ", "Roma" e "Berlim".Nessas quatro respostas, há três significados diferentes, o que aponta a confusão do modelo de inteligência artificial. O autor do estudo, o pesquisador da Universidade de Oxford Sebastian Farquhar, definiu essa situação como "estado de alta entropia semântica",ao emprestar da física o conceito de "nível de entropia" -uma medida do quanto um sistema está caótico. Essa medida acabou mostrando alta relação com a probabilidade da inteligência artificial alucinar -ou confabular, como diz o estudo.FOLHAPRESS

Comentários

Postagens mais visitadas deste blog

Por que não enxergamos estrelas verdes ou roxas?

Egípcia posa nua em blog e provoca indignação