A inteligência artificial é um tópico que tem gerado bastante discussão ultimamente, levantando preocupações quanto aos riscos que isso poderá causar para a nossa sociedade, mas enquanto não se chega a esse ponto, há passos mais pequenos que vão sendo dados - como esta auto-aprendizagem do DeepMind do Google que aprendeu a jogar jogos sozinho.
Os investigadores do sistema de inteligência artificial DeepMind do Google decidiram ver que tal o sistema reagiria confrontado com tipos de problema dinâmicos, e recorreram a jogos clássicos para avaliar a sua capacidade de aprendizagem a diferentes circunstâncias. E os resultados foram surpreendentes.
O sistema utilizado foi "inspirado" por aquele que encontramos na Natureza, em que as acções positivas (que levam a melhor resultado no jogo) se tornam preferidas face às que resultam em desfechos negativos. E embora não seja a primeira vez que se usam estes sistemas, é sempre surpreendente vê-los em acção. No vídeo acima, vemos que ao final de umas centenas de sessões a jogar Breakout, o sistema chegou à conclusão que o ideal é escavar um buraco e enviar a bola para a parte de cima dos tijolos, tal como um jogador humano faria.
Faz-me recordar um relato de um developer que para afinar a inteligência artificial dos jogadores controlados pelo computador num jogo multiplayer, criou um sistema que ia introduzindo mutações aleatórias na sua inteligência artificial e fazendo combater estas diferentes versões entre si, até que depois de centenas de milhares de batalhas, surgiu uma versão vitoriosa que nenhuma outra conseguia derrotar (e que depois se veio a a revelar ser inteligente demais e teve que ser "desafinado" para dar alguma hipótese aos jogadores humanos. :)
Sem comentários:
Enviar um comentário