De Sāo Paulo, SP.
Quem acessa o website da OpenAI e busca entender sua origem e estrutura, vai se deparar com a seguinte explicação:
“Nós fundamos a OpenAI Sem Fins Lucrativos no final de 2015 com o objetivo de construir inteligência artificial geral segura em benefício da humanidade. Um projeto desses poderia ter sido proveniente de múltiplos governos – um empreendimento na (mesma) escala da humanidade, buscando benefícios para o ser humano.
Não enxergando nenhuma iniciativa clara do setor publico nesse sentido e considerando o sucesso de outros projetos ambiciosos do setor privado (ex.: SpaceX, Cruise e outros) decidimos desenvolver esse projeto através da iniciativa privada, vinculado a um forte compromisso com o bem público. Assumimos o compromisso de publicar nossos dados e estudos nos casos em que sentirmos que é seguro fazê-lo e beneficiará o público em geral”
Trocando em miúdos, a OpenAI foi criada como uma organização sem fins lucrativos - a mesma concepção por trás dos fundos de pensão.
Quando foi fundada, a OpenAI Inc. (sem fins lucrativos) tinha como meta receber doações de US$ 1 bilhão, porém, ao longo dos anos, conseguiu apenas um total de US$ 130,5 milhões que usou para financiar seu trabalho inicial em “deep learning”.
Diante do desafio de obter mais recursos para P&D, a OpenAI Inc. precisava fazer alguma coisa. A explicação no website, contando sua história, prossegue:
“Sempre suspeitamos que nosso projeto seria capital intensivo ... se tornou cada vez mais claro que as doações sozinhas não teriam a mesma escala do custo do poder computacional e talentos necessários para levar a pesquisa básica adiante, prejudicando nossa missão.
Então, criamos uma estrutura para preservar nossa missão principal de não ter fins lucrativos, nossa governança e supervisão, ao mesmo tempo em que nos permite levantar capital para nossa missão.”
Foi assim que em 2019 a OpenAI criou uma subsidiária com fins lucrativos (a OpenAI GP LLC) através da qual passou a obter recursos, contratar talentos e cobrir os altos custos de desenvolvimento das novas tecnologias - estrutura do diagrama abaixo.
Imediatamente após a criação da subsidiaria visando lucros e do anúncio da primeira rodada de financiamento, a OpenAI GP LLC costurou uma parceria estratégica com a Microsoft através da qual recebeu o aporte de US$ 10 bilhões.
A Microsoft ficará com 75% do lucro da OpenAI GP LLC até recuperar seu investimento e a partir daí receberá 49% de participação nos lucros da companhia.
Apesar da criação da subsidiaria voltada para obter lucros e da parceria com a Microsoft, a OpenAI Inc. fez questão de deixar bem claro todas as amarras impedindo seu distanciamento de sua missão original (não visar lucros):
- A OpenAI Inc. (Sem Fins Lucrativos) permaneceu intacta, com seu conselho de administração sendo o órgão máximo de todas as atividades da OpenAI;
- A Microsoft aceitou desde o início as condições que limitaram a oferta de capital da subsidiaria limitando, portanto, a distribuição de lucro para investidores e também empregados da subsidiaria, deixando o excesso de lucro para a humanidade, controlado pela organização sem fins lucrativos;
- A subsidiaria da OpenAI visando lucro, a OpenAI GP LLC, permaneceu uma organização totalmente independente, governada pela OpenAI Inc. (Sem Fins Lucrativos). A Microsoft não tem assento no conselho e nenhum controle da propriedade intelectual, das licenças e dos acordos envolvendo a Inteligência Artificial Geral;
A primazia da missão da OpenAI Inc. (sem fins lucrativos) está codificada e faz parte do acordo operacional com a OpenAI GP LLC – a subsidiaria que tem fins lucrativos (imagem abaixo), sujeitando seu cumprimento a todo investidor e funcionário da operação com fins lucrativos
A demissão de Sam Altman, foi assim que aconteceu
Sam Altman, foi demitido da posição de CEO da OpenAI por quatro membros do conselho de administração. A principal razão parece ter sido a mudança na visão de Sam Altman que passou a ser orientada para uma estratégia comercial, conflitando com a missão e objetivo iniciais da OpenAI de não visar lucro.
Na medida em que a OpenAI avançava rapidamente no segmento empresarial e no mercado de GPT, a trajetória para se tornar uma das principais empresas de tecnologia comercial foi traçada.
Conjectura-se que essas decisões comerciais foram tomadas sem a concordância do conselho criando, portanto, um conflito entre Sam Altman e os quatro membros do board.
- Ilya Sutskever – Conselheiro, Cofundador e Chief Scientist da OpenAI
Divergência mais provável: conflito com a visão sobre a segurança e desenvolvimento responsável do uso da Inteligência Artificial.
- Adam D’Angelo – Conselheiro Independente e CEO da Quora
Divergência mais provável: manter a OpenAI fiel a sua missão original de ser uma organização sem fins lucrativos.
- Tasha McCauley – Conselheira Independente e Empreendedora de Tecnologia
Divergência mais provável: visão sobre os usos éticos e práticos da inteligência artificial
- Helen Tober – Conselheira Independente e Diretora de Estratégia e Financiamento de Pesquisa Básica no Center for Security and Emerging Technology (CSET) da Georgetown University
Divergência mais provável: conflito com a visão sobre segurança e desenvolvimento responsável do uso da Inteligência Artificial.
Na sequência da demissão de Altman, o também conselheiro e Ex-Presidente da OpenAI, Greg Brockman, pediu demissão em apoio a Sam Altman, com o qual compartilha a visão de tornar a OpenAI uma organização mais voltada para fins comerciais.
Uma lição para a nova fase dos fundos de pensão
A demissão de Sam Altman é uma lição de governança corporativa para os fundos de pensão, principalmente considerando essa nova fase, na qual eles começam a se abrir para novos mercados e a perseguir novos públicos-alvo.
A “Teoria de Agência” visa analisar conflitos de interesse resultantes da separação entre a propriedade e o controle de uma organização.
Michael C. Jensen e William H. Meckling foram responsáveis por formalizar em 1976 a teoria da agência, explicando que a sociedade é construída com base em contratos, sejam eles implícitos ou explícitos, que estabelecem quais são as funções, direitos e deveres de todos os envolvidos.
De acordo com essa teoria, existem figuras que atuam diretamente na empresa: o agente e o principal. O principal é aquele que está no centro das relações da empresa, envolvido e a par de todos os interesses e interessados na instituição.
Já o agente consiste em profissionais contratados ou demais envolvidos, como colaboradores, concorrentes, acionistas, clientes, reguladores, credores, fornecedores, etc.
É comum que na relação entre o principal e os agentes exista um desequilíbrio nas informações: cada grupo possui acesso a informações e dados distintos, muitas vezes, e por isso é natural que possuam interesses diferentes.
Com interesses diferentes, a busca por decisões também diverge: é comum que cada grupo busque tomar decisões com base naquilo que fará mais sentido para suas necessidades, que nem sempre serão as mesmas que as dos outros envolvidos.
O papel do conselho (board) é manter alinhados os interesses e visões dos principais e dos agentes. No caso da OpenAI tudo leva a crer que os controladores queriam mantê-la como uma organização de P&D (pesquisa e desenvolvimento) e não como um titã corporativo de trilhões de dólares, tipo as FAANG (Facebook, Amazon, Apple, Netflix e Google).
Se foi isso mesmo que aconteceu, o papel do conselho foi fazer a coisa certa e corrigir o rumo, responsabilizando o CEO por não agir no melhor interesse dos controladores.
Com o afastamento dos fundos de pensão das empresas que os fundaram, veremos chegar novas empresas patrocinadoras e também novos tipos de participante, sem nenhum vínculo empregatício com empresas (planos instituídos).
Isso tudo mudará o equilíbrio e os interesses de agentes e principais, impondo a necessidade de uma nova governança dos conselhos. Venho alertando para isso há alguns anos, mas aparentemente, ando pregando no deserto ...
Grande abraço,
Eder.
Fonte: “Why Was Sam Altman Fired?”, escrito por Nicolas Boucher
Nenhum comentário:
Postar um comentário