A janela para definir como a IA vai operar na sua empresa está se fechando

Thanos Papadimitriou
Co-founder & President at Moveo.AI
in
🏆 Leadership Insights

Num dos episódios do meu podcast na SKAI, perguntei a Vasilis Vassalos, professor de ciência da computação e ex-aluno de Stanford que conviveu com os fundadores do Google durante os primeiros anos da empresa, sobre uma carta assinada por nomes como Steve Wozniak e Elon Musk.
A carta, publicada em março de 2023 pelo Future of Life Institute, pedia uma pausa de seis meses no treinamento de sistemas de IA mais poderosos que o GPT-4. O que aconteceu com ela?
A resposta de Vassalos foi direta: não aconteceu nada. Os titãs da tecnologia simplesmente a ignoraram.
Os motivos que ele apontou dizem algo importante sobre o momento que vivemos, e sobre o que isso significa para qualquer organização que já está usando, ou planeja usar, agentes de IA em suas operações.
A analogia que ficou comigo
Vassalos usou o automóvel como referência. Primeiro os carros foram fabricados. Depois as pessoas morreram em acidentes. Depois vieram os semáforos, as faixas de pedestres, as leis de trânsito. A regulação chegou depois do problema, mas numa escala de tempo compatível com a vida humana. As sociedades tiveram décadas para se adaptar.
Com a IA, essa margem colapsou.
As evoluções que antes levavam gerações agora acontecem em anos. E as instituições, sejam elas reguladoras, corporativas ou de governança, não foram desenhadas para responder nesse ritmo. O gap entre o que a tecnologia já pode fazer e o que as estruturas de decisão conseguem processar nunca foi tão grande.
O problema que Vassalos descreveu no nível da regulação global existe também no nível de cada organização. E tem uma consequência direta para quem toma decisões sobre IA em operações de alto volume.
Por que a autorregulação não está funcionando
A carta do Wozniak e Musk falhou por dois motivos, segundo Vassalos. O primeiro é estrutural: os interesses nacionais raramente permitem coordenação internacional em problemas de escala global. A crise climática é o exemplo mais evidente. A IA está se tornando o segundo.
O segundo motivo é mais revelador. Há um segmento muito grande da sociedade que acredita que as empresas de tecnologia deveriam se autorregular, que o mercado encontrará o equilíbrio certo sem intervenção externa. A carta foi ignorada pelos titãs da tecnologia exatamente porque esse argumento lhes é conveniente.
O problema, como Vassalos colocou, é que a autorregulação simplesmente não aconteceu. E seis meses depois da carta, nada havia mudado.
O mesmo padrão se repete dentro das organizações. Times implantam agentes de IA esperando que alguém de fora defina as regras antes que seja necessário agir internamente. O regulador vai estabelecer os limites. O fornecedor vai garantir a conformidade. O setor vai criar um padrão.
Enquanto isso, decisões de configuração se acumulam. E cada uma delas é, na prática, uma escolha sobre como a IA vai operar, quais ações vai tomar de forma autônoma e o que vai escalar para um humano. Não definir esses limites conscientemente não significa que eles não existam. Significa que foram definidos por omissão.
O que observo em organizações que adiam essa decisão
Como alguém que constrói sistemas de IA para operações enterprise na Moveo.AI, vejo três consequências se repetirem em organizações que postergam essa decisão.
1- Decisões de configuração viram política sem ter sido tratadas como tal
Um parâmetro ajustado para resolver um problema pontual se torna o padrão da operação. Meses depois, ninguém sabe ao certo por que o agente se comporta de determinada forma, e mudar exige um esforço desproporcional.
2- Riscos de compliance aparecem no resultado, não na reunião de aprovação
Em setores regulados, a diferença entre uma ação autônoma do agente dentro da política e fora dela pode ser invisível até que um auditor ou um cliente a aponte. Nesse ponto, o custo de correção é muito maior do que teria sido o de prevenção.
3- A janela de vantagem competitiva se fecha
Organizações que definem governance de IA antes de serem obrigadas a isso ganham flexibilidade para expandir o uso de agentes com mais confiança e menos retrabalho. Quem espera pela regulação externa começa essa conversa já em posição reativa.
Esse momento não vai durar
Vassalos deu mais de 50% de probabilidade de que a superinteligência se torne realidade na próxima década ou década e meia. Independentemente do que se pense sobre esse horizonte, o que é claro é que a próxima onda de capacidades vai chegar antes que a maioria das organizações tenha definido como lidar com a atual.
Essa é a janela. O momento entre a implantação dos primeiros agentes e a chegada da próxima geração de sistemas é o mais adequado para definir internamente como a IA vai operar, com que limites e quem revisa essas decisões ao longo do tempo.
Esperar pela regulação externa não é uma estratégia neutra. É uma decisão de adiar uma escolha que já está sendo feita, por omissão, todos os dias.
Defina antes de ser obrigado
As organizações que estabelecerem internamente como a IA vai operar antes de serem forçadas a isso vão ter mais liberdade, não menos, quando a regulação finalmente chegar. Porque vão chegar a essa conversa com decisões já tomadas, revisadas e documentadas, em vez de precisar reconstruir a lógica de escolhas que ninguém lembra de ter feito.
A janela está aberta. Por quanto tempo, ninguém sabe.
Thanos Papadimitriou leciona empreendedorismo na NYU Stern em Nova York e cadeia de suprimentos na SDA Bocconi, em Mumbai. Ele é um dos cofundadores da startup de tecnologia Moveo.AI.