O que é Inteligência Artificial e como ela é utilizada?
A IBM, por exemplo, tem um grande histórico de trabalhar com IA. Um dos casos mais antigos e famosos da empresa foi a partida de xadrez entre o consagrado campeão mundial, em 1997, e o software Deep Blue. Foi a primeira vez na história que um computador venceu um jogador de nível profissional.
Em 2011, outra IA da IBM, o Watson, venceu o programa televiso Jeopardy!, uma competição que fornece as respostas sobre cultura popular, e os participantes têm de acertar qual é a pergunta que seria feita. O software venceu os dois maiores competidores humanos do programa apenas com acesso ao banco de dados offline da Wikipédia.
Depois de conseguir esses dois marcos na história da Inteligência Artificial, em 2014 a IBM começou a oferecer alguns serviços para a construção de aplicações cognitivas próximas da humana, como fala e compreensão de texto, entre outras.
Evolução da Inteligência Artificial
Inteligência Artificial hoje torna impossível um humano vencer um computador no xadrez. (Fonte: Pexels)
O Deep Blue calculava uma simples busca em espaços de estados no tabuleiro. O número de jogadas possíveis no jogo é finito, mas absurdamente grande. Uma equipe de jogadores de xadrez auxiliou o programa a eliminar as jogadas sem sentido. O computador também utilizou a classificação por score de cada situação para tomar a decisão sobre as jogadas, dentro de um tempo limitado.
Apesar de ter sido revolucionária na época, a maioria dos programas de xadrez hoje não são mais baseados nessa abordagem, mas sim em Machine Learning, o que tem tornado praticamente impossível de um ser humano ganhar de um computador.
Afinal, o que é o conceito de “sistemas especialistas” referentes à IA?
O conceito de Inteligência Artificial geralmente engloba três tipos de sistemas. O primeiro, conhecido como “sistemas especialistas”, diz respeito à simulação da inteligência humana com respostas diretas a determinadas ações do ambiente, como o Deep Blue ou até mesmo um sistema simples de controle de vazão de água ao encher um tanque.
Esses sistemas conseguem reduzir a complexidade computacional dos problemas por meio de regras generalistas bem-definidas e dependem da ajuda de um especialista humano. Essa estratégia dominou o campo da IA nas décadas de 1970 e 1980, mas tem uma capacidade limitada e não pode ser utilizada com regras mais complexas.
Porém, isso não significa que outras tecnologias não existiam, como os algoritmos, mas esse tipo de ferramenta carecia uma quantidade mínima de dados como também uma capacidade de processamento e armazenamento que não existia naquela época.
Explosão do Big Data foi possível após a ascensão da IA
Evolução dos dispositivos eletrônicos causam uma explosão na produção de dados. (Fonte: Pexels)
A redução do custo dos eletrônicos proporcionou o aumento do poder computacional, sem contar na diminuição do tamanho dos equipamentos e o crescimento da eficiência de energia. Essa revolução começou com as capacidades de processamento e armazenamento, sendo potencializada com a Internet das Coisas (IoT) e a difusão das redes sociais, gerando uma explosão do Big Data.
Em 1975, por exemplo, o Cray-1 precisava de 200 kW e tinha uma capacidade de processamento de 80 megaflops – sigla para operações de ponto flutuante por segundo. Hoje, o processador tem uma capacidade de processamento 10 mil vezes maior, consumindo mil vezes menos energia.
Um disco rígido em 1956 precisava de vários homens para ser transportado e custava US$ 80 mil, mas só era capaz de armazenar apenas 5 MB. Atualmente, um cartão SD de 1 TB é menor do que o tamanho de uma unha, sendo tão leve quanto uma folha de papel, e pode ser comprado por módicos R$ 60.
O advento da internet provocou a digitalização da economia. O processo ainda está em andamento e o número de usuários vem crescendo a cada ano. Em 2005, cerca de 1 bilhão de pessoas usavam a internet, o que representava quase 17% da população mundial. Em 2019, mais da metade da população global passou a usar a internet, um universo de aproximadamente 5 bilhões de pessoas.
As informações geradas pela interação em aplicativos e redes sociais desse grande contingente de usuários por meio de diversos dispositivos, como smartphones, gerava um enorme de banco de dados chamada de Big Data. Esses dados são utilizados por organizações para montar estratégias de marketing e também podem ser úteis no desenvolvimento da IA.
Machine Learning também auxilia no processo de digitalização?
Algoritmos podem aprender a identificar padrões de forma autônoma. (Fonte: Pexels)
A partir da possibilidade de acesso a muitos dados e da melhoria do processamento e armazenamento, a IA evoluiu para o conceito de Machine Learning (ML). Por meio de algoritmo, essa tecnologia é capaz de aprender com seus próprios erros e fazer previsão de dados sem a interferência contínua de humanos, como nos sistemas especialistas.
Essa ferramenta é usada em uma variedade de tarefas computacionais na qual criar e programar algoritmos explícitos é impraticável. O ML é aplicado em abordagens como regras de associação, árvores de decisão e algoritmos genéticos, sendo utilizada em áreas diversas como Finanças e Climatologia. A tecnologia é capaz, por exemplo, de reconhecer objetos e detectar transações fraudulentas.
E a deep Learning, onde entra nessa história?
Dentro da Machine Learning, existe ainda um subconjunto de técnicas capaz de modelar abstrações de alto nível de dados usando uma programação profunda com várias camadas de processamento. O Deep Learning (DP) é baseado em um conjunto de algoritmos compostos de várias transformações lineares e não lineares.
As aplicações do DP são as mesmas que as de ML, a diferença entre elas está no modo de aprendizagem. Enquanto o Machine Learning requer uma boa engenharia de configuração para conseguir identificar apropriadamente as características que se pretende analisar, o Deep Learning é capaz de fazer isso forma automática. Dessa forma, o DP é um sistema totalmente independente da intervenção humana, mas depende da qualidade e quantidade de dados de entrada.
Fonte: TecMundo