IA – Utopia ou Racionalidade
Raul Rosenthal, PhD (*)
A relevância da qualidade dos Modelos e Algoritmos na IA-Inteligência Artificial não está tendo a devida consideração na literatura e na prática. Essa lacuna se torna especialmente problemática à medida que aplicações de IA passam a influenciar decisões de alto impacto em domínios sensíveis. Assim, torna-se imprescindível uma análise crítica mais profunda sobre como a qualidade dos modelos e algoritmos é avaliada e incorporada ao ciclo de desenvolvimento de IA.

A denominação IA-Inteligência Artificial, conforme consolidada no mercado, pode ser estruturada em três pilares: Capacidade/Velocidade de Processamento, Disponibilidade de Dados e Criação de Modelos/Algoritmos.
Capacidade/Velocidade de Processamento
O advento da computação em nuvem, aliado à nova geração de unidades de processamento e à expansão dos Hyper Data Centres, resultou em um crescimento exponencial da capacidade computacional e da velocidade de processamento nas últimas décadas.
No segmento de armazenagem em nuvem, apesar da intensa competitividade, destaca-se a Amazon Web Services (AWS), que mantém liderança global com contratos de larga escala em múltiplos setores – estatal, privado, público, educacional, industrial, financeiro, entre outros.
No âmbito da produção de chips e processadores, a NVidia consolidou-se como referência tecnológica, desenvolvendo unidades capazes de executar operações de alta complexidade, anteriormente consideradas inviáveis do ponto de vista computacional. Em 2014 a NVidia lançou o revolucionário chip K8, 10 anos após, em 2024 lançou o B200 e o avanço é extraordinário. (**)
E os Hyper Data Centres com investimentos globais estimados entre US$700 bilhões e US$1 trilhão até 2030 e demandando um consumo de energia que vem causando desequilíbrio tarifário em diversas partes do mundo. (***)
Disponibilidade de Dados
O volume de dados gerados por dispositivos conectados, sistemas corporativos e interações digitais cresce de forma exponencial, impulsionado pela Internet das Coisas (IoT), pela digitalização de processos industriais e pela expansão das redes sociais.
Hoje em dia, praticamente todos os dados são acessíveis de forma digital e os que não o são diretamente, dados de carater confidencial, podem se inferidos com razoável segurança.
Usando o Brasil como referência, temos uma disponibilidade de dados bastante robusta, ex: PNAD Continua, RAIS-Ministério do Trabalho, RAIS/CAGED/Receita Federal, POF-IBGE/FGV, DATASUS, Entidades Setoriais: ABRAS, ABAD, ABINEE, BACEN, APM, só para citar algumas.
Importante mencionar que os dados crescem exponencialmente de valor quando adequadamente trabalhados. Para esta outra base, também existem empresas que realizam este trabalho, exemplificando: NielsenIQ, Kantar, Neogrid, ClearSale, Ebit/Nielsem, SD&W, entre outras, que trabalham estes dados e criam suas próprias bases com fins específicos.
O processamento e a integração desses dados em larga escala tornaram-se viáveis graças a plataformas de Big Data e a tecnologia de armazenamento e distribuíção que permitem o tratamento simultâneo de multiplas fontes heterogêneas. A qualidade, a integridade e governança desses dados são fatores determinantes para a confiabilidade dos modelos de IA, demandando práticas robustas de curadoria, segurança da informação e conformidade regulatória (como a LGPD e outras legilações internacionais de proteção de dados).
A combinação dos dois primeiros pilares, Capacidade/Velocidade de Processamento e Disponibilidade de Dados, tem todos os componentes para gerar um enorme ganho de produtividade, principalmente em funções com características repetitivas. Porém, os modelos ou algorítimos computacionais que sustentam a IA são construidos para emular aspectos do raciocínio humano por meio de analise de grandes volumes de dados. A eficiência de um Sistema Inteligente depende diretamente da qualidade de seu algorítimos, uma vez que é por meio deles que ocorrem o reconhecimento de padrões, a generalização e a inferência estatística.
Para que isto aconteça de forma adequada, é necessário transformar o modelo mental deste e de qualquer outro processo em um algorítimo “inteligível” pelos dois primeiros pilares acima mencionados.
Criação de Modelos/Algoritimos
A capacidade de craição de modelos e algorítmos representa o núcleo cognitivo da IA-Inteligência Arificial. Esse componente abrange o desenvolvimento de arquiteturas computacionais capazes de realizar aprendizado autônomo, inferência estatística e reconhecimento de padrões complexos.
O avanço das técnicas de aprendizado profundo (Deep Learning), aliado a evolução das redes neurais artificiais, possibilitou a construção de modelos altamente especializados em tarefas como visão computacional, processamento de linguagem natural (PLN) e tomada de decisão preditiva.
Além disso, a incorporação de frameworks de código aberto – como TensorFlow, PyTorch e Scikit-learn – democratizou o acesso a ferramentas de modelagem e experimentação, acelerando o ciclo de inovação em IA. Entretanto, a otimização do desempenho e a interpretação dos resultados algoríitmicos permanecem desafios centrais, especialmente no que se refere a confiabilidade, transparência e auditibilidade dos modelos.
Portanto, a qualidade dos Modelos e Algorítimos constitui o cerne nevrálgico da IA-Inteligência Artificial.
Um equívoco recorrente na compreensão da IA contemporânea é a ideia de que a inteligência, modelos e algorítimos, pode ser descentralizada. Tal percepção desconsidera que, embora o processamento possa ser distribuido, a inteligência permanece vinculada a um “modelo central”, cujas capacidades dependem de sua arquitetura e dos dados empregados em seu treinamento.
Nesse sentido, duas hipóteses podem decorrer da premissa de descentralização:
- A criação de novos modelos ou algorítimos a serem incorporados ao “modelo central”, cujo resultado dependerá da qualidade dessas novas estruturas;
- A parametrização do “modelo central” para uso descentralizado (como, por exemplo, demandas geográficas distintas).
Assim, concluiu-se que a descentralização do fluxo computacional não implica na descentarlização da estrutura cognitiva. Tratam-se de dois processos distintos, porém frequentes no debate público e acadêmico.
Em outras palavras, descentralização de processamento não é o mesmo que descentralização de inteligência.
O alerta classico de Aristóteles, o pai da lógica formal, permanece pertinente: “Admitido um disparate, o resto segue; nenhuma dificuldade nisso”.
Questionamento central: estamos falando de IA-Inteligência Artificial ou IR-Inteligência Racional?
(*) PhD University of Birmingham-England, Ex-Professor da FEA-USP e FGV-SP, Membro de Conselhos de Administração, Palestrante, Autor do livro: Sonhar Acordado, raul.rosenthal@gmail.com
(**) Simples comparação de alguns parâmetros de performance entre os dois: Memoria GPU do K80 é 24GB e do B200 180GB, 7,5x maior; Largura de Banda de Memória do K80 é 480GB e do B200 é de 8TB, 17x maior; Desempenho FP64 do K80 é ˜2,91TFLOPS e do B200 é 40TFLOPS, 13,5x maior.



