Inteligência artificial supera humanos em jogos de tiro
Uma equipe de programadores de uma empresa britânica de inteligência artificial projetou "agentes" automáticos que ensinaram a si mesmos como jogar um jogo de tiro multiplayer em primeira pessoa
Cuidado, jogadores profissionais: as máquinas podem estar chegando em breve para roubar seus trabalhos.
Uma equipe de programadores de uma empresa britânica de inteligência artificial projetou "agentes" automáticos que ensinaram a si mesmos como jogar um jogo de tiro multiplayer em primeira pessoa, e se tornaram tão bons que derrotaram os humanos consistentemente.
O trabalho dos pesquisadores da DeepMind, que pertence à empresa matriz do Google, Alphabet, foi descrito em um artigo publicado na revista Science nesta quinta-feira e marca a primeira vez que esse feito foi realizado.
Certamente, os computadores têm exercido seu domínio sobre os humanos em jogos entre duas pessoas baseados em turnos, como o xadrez, desde que o Deep Blue da IBM venceu Gary Kasparov, em 1997. Mais recentemente, um agente da GoogleAI venceu o jogador número um do mundo em Go, em 2017.
Mas a capacidade de jogar multiplayer envolvendo trabalho em equipe e interação em ambientes complexos permanecia uma tarefa insuperável.
Para o estudo, a equipe liderada por Max Jaderberg trabalhou em uma versão modificada do Quake III Arena, um jogo de tiro em primeira pessoa que foi lançado em 1999.
O modo de jogo que eles escolheram foi "Capture the Flag", que envolve trabalhar com os companheiros da equipe para pegar a bandeira do time adversário enquanto protegem a sua própria, forçando os jogadores a elaborar estratégias complexas que combinam agressão e defesa.
Depois que os agentes tiveram tempo para treinar a si próprios, suas proezas foram equiparadas aos testadores de jogos profissionais.
"Mesmo depois de 12 horas de prática, os humanos testadores de jogos só conseguiram vencer 25% dos jogos contra a equipe do agente", escreveram os pesquisadores, enquanto o desempenho dos agentes permaneceu superior mesmo quando seus tempos de reação foram artificialmente reduzidos para níveis humanos.
- Novos passos para a IA -
Os programadores confiaram no chamado "Reinforcement Learning" (RL, "aprendizado por reforço") para imbuir os agentes com suas habilidades.
"Inicialmente, eles não sabiam nada sobre o mundo e, em vez disso, estavam fazendo coisas completamente aleatórias e saltando sobre o local", disse Jaderberg à AFP.
Os agentes foram ensinados a se recompensar por capturar a bandeira, mas a equipe também desenvolveu uma série de métodos novos e inovadores para ampliar os limites do que é possível com o RL.
"Uma das contribuições do artigo é que cada agente aprende seu próprio sinal interno de recompensa", disse Jaderbeg, o que significa que os jogadores de IA recompensavam a si mesmos com magnitudes variadas por realizar tarefas como pegar a bandeira ou atirar com sucesso em um oponente.
Em seguida, eles descobriram que treinar uma população de agentes juntos, em vez de um de cada vez, fez a população como um todo aprender muito mais rápido.
- Questões éticas -
A equipe não comentou, no entanto, sobre o potencial da IA para uso futuro em ambientes militares.
A DeepMind declarou publicamente no passado que está comprometida em nunca trabalhar em qualquer projeto militar ou de vigilância, e a palavra "atirar" não aparece sequer uma vez no artigo (o processo é descrito como marcar adversários apontando um dispositivo a laser contra eles).
Jaderberg disse que sua equipe gostaria de explorar a possibilidade de os agentes jogarem na versão completa do Quake III Arena e descobrirem como sua inteligência artificial poderia funcionar em problemas fora dos jogos.
"Usamos jogos, como o Capture the Flag, como ambientes desafiadores para explorar conceitos gerais como planejamento, estratégia e memória, os quais acreditamos serem essenciais para o desenvolvimento de algoritmos que podem ser usados para ajudar a resolver problemas do mundo real", acrescentou.