IA "Aberta": Desvendando a Ilusão da Transparência e o Que Realmente Importa

24/02/2025
45 visualizações
Imagem principal do post

## A Verdade Nua e Crua sobre a "Abertura" da IA: Estamos Sendo Enganados?

Enquanto a indústria de Inteligência Artificial (IA) se volta para a transparência e segurança, um debate acalorado surge: o que realmente significa "abertura" em IA? Especialistas da Endor Labs, empresa focada em segurança de código aberto, jogam luz sobre essa questão crucial.

Andrew Stiefel, da Endor Labs, defende que as lições aprendidas com a segurança de software devem ser aplicadas aos sistemas de IA. Ele cita o exemplo das "listas de materiais de software" (SBOMs), inventários detalhados dos componentes de código aberto em um produto, que ajudam a detectar vulnerabilidades. "Aplicar esses princípios aos sistemas de IA é o próximo passo lógico", afirma Stiefel.

Mas o que define um modelo de IA como "aberto"? Julien Sobrier, também da Endor Labs, explica que um modelo de IA é composto por diversos elementos: dados de treinamento, "pesos" (parâmetros que definem o comportamento do modelo) e programas para treinar e testar o modelo. Para ser considerado verdadeiramente aberto, toda essa cadeia deve ser acessível em código aberto.

Sobrier alerta para a falta de consenso sobre o termo "aberto" entre os grandes players do mercado, o que gera confusão. Ele adverte sobre o "open-washing", prática em que empresas alegam transparência, mas impõem restrições que limitam o uso e a modificação dos modelos de IA.

Um exemplo disso são os provedores de nuvem que oferecem versões pagas de projetos de código aberto, mas sem contribuir de volta para a comunidade. Sobrier teme que a Meta e outros fornecedores de modelos de linguagem (LLMs) "abertos" sigam esse caminho, buscando manter sua vantagem competitiva ao restringir o uso de seus modelos por concorrentes.

### DeepSeek: Um Raio de Esperança na Busca por Transparência

A DeepSeek, empresa em ascensão no mundo da IA, tem adotado medidas para aumentar a transparência, abrindo o código de parte de seus modelos. Essa iniciativa foi elogiada por promover a transparência e fornecer insights de segurança.

Stiefel destaca que a DeepSeek já disponibilizou seus modelos e seus "pesos" em código aberto. Ele acredita que a transparência da DeepSeek facilitará a auditoria de seus sistemas pela comunidade, permitindo que indivíduos e empresas executem suas próprias versões dos modelos em produção.

### A Explosão da IA de Código Aberto

As iniciativas da DeepSeek refletem uma tendência crescente: a adoção de IA de código aberto. Uma pesquisa da IDC revela que 60% das empresas estão optando por modelos de código aberto para seus projetos de IA generativa, em vez de alternativas comerciais.

A Endor Labs descobriu que as empresas usam, em média, de sete a vinte e um modelos de código aberto por aplicação. A razão é simples: escolher o melhor modelo para cada tarefa e controlar os custos de API.

Sobrier enfatiza que os modelos de IA devem ser vistos como dependências críticas de software. As empresas precisam garantir que têm permissão legal para usar esses modelos e que eles são seguros em termos de riscos operacionais e de cadeia de suprimentos.

### Gerenciando os Riscos da IA Aberta: Um Guia Prático

Com a crescente adoção da IA de código aberto, o gerenciamento de riscos se torna ainda mais importante. Stiefel propõe uma abordagem sistemática, focada em três etapas:

1. **Descoberta:** Identifique os modelos de IA que sua empresa está usando.

2. **Avaliação:** Analise esses modelos em busca de riscos potenciais, incluindo segurança e questões operacionais.

3. **Resposta:** Defina e aplique diretrizes para garantir a adoção segura dos modelos.

Sobrier defende que a comunidade deve desenvolver as melhores práticas para construir e adotar modelos de IA com segurança. É preciso criar uma metodologia comum para avaliar os modelos de IA em relação a parâmetros como segurança, qualidade, riscos operacionais e abertura.

### Além da Transparência: Rumo a um Futuro da IA Responsável

Para garantir o crescimento responsável da IA, a indústria deve adotar controles em diversas áreas:

* **Modelos SaaS:** Proteção do uso de modelos hospedados por funcionários.

* **Integrações de API:** Desenvolvedores incorporando APIs de terceiros em aplicativos.

* **Modelos de código aberto:** Desenvolvedores usando modelos criados pela comunidade ou criando seus próprios modelos a partir de bases existentes.

Sobrier alerta para a complacência diante do rápido avanço da IA. Ele defende que a comunidade precisa construir as melhores práticas para desenvolver modelos de IA seguros e abertos, e criar uma metodologia para avaliá-los em relação a segurança, qualidade, riscos operacionais e abertura.

Em resumo, como diz Stiefel: "Pense na segurança em várias dimensões e implemente os controles adequados para cada uma delas."

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!