Fonte aberta de inteligência artificial está novamente aos olhos do público. Elon Musk recentemente provocou outro debate em torno da tática quando ele garantiu os algoritmos de código aberto do Twitter para aumentar a transparência e promover a liberdade de expressão. Mas a conversa sobre o assunto tem sido um elemento integral do desenvolvimento da IA há algum tempo. Antes de entrar no âmago da questão, é crucial primeiro entender o significado do termo e suas principais implicações. No domínio do desenvolvimento de software, o software de código aberto tem seu código-fonte acessível ao público, permitindo que qualquer interessado possa vê-lo, modificá-lo e distribuí-lo. Em poucas palavras, é uma rota descentralizada e colaborativa para o desenvolvimento de software.
Linux, WordPress, Mozilla Firefox e VLC media player são alguns dos exemplos bem conhecidos de software de código aberto deixando um impacto duradouro. O código aberto tem alguns benefícios cruciais, como uma taxa acelerada de desenvolvimento e implantação de software, pois não há barreira para as partes interessadas ou mesmo entusiastas. Outro aspecto fundamental é a revisão e aceitação da comunidade, que permite que especialistas critiquem e ajudem a melhorar um projeto sem barreiras corporativas. Escusado será dizer que as comunidades de código aberto aceleram o ritmo da inovação. Mas a maior vantagem, especialmente quando se trata de um tema polêmico como a Inteligência Artificial, é a transparência.
Na superfície, mantendo IA desenvolvimento próximo ao peito corporativo e colocá-lo atrás das barreiras das leis de propriedade intelectual sufoca a inovação. Quando um projeto de IA está em desenvolvimento entre um círculo próximo de funcionários, independentemente de quão promissor ou avançado seja, levará muito mais tempo porque não possui um ciclo de feedback externo que possa permitir que uma equipe resolva mais problemas do que o previsto para o projeto. Mas a IA não trata apenas do ritmo da inovação ou da solução de mais problemas do que o proposto inicialmente em um slide de apresentação corporativa. A diversidade – e o preconceito – surgiram como um dos aspectos mais desafiadores da criação de produtos de IA inclusivos. Apesar de ser um produto de IA de ponta vindo de líderes como Google e Microsoft, um programa de IA que foi desenvolvido em uma atmosfera não inclusiva com dados de treinamento sem diversidade é quase sempre uma má notícia.
Por exemplo, o chatbot Tay da Microsoft levou apenas alguns dias para se tornar uma fossa de ideias racistas. O mesmo aconteceu com o Delphi AI. Dall-E 2, o garoto quente favorito no bloco de IA que produz imagens legais com base em descrições de texto, também vem produzindo resultados que sustentam estereótipos de gênero contra pessoas de cor e mulheres. Sam Altman, CEO da empresa por trás de DALL-E 2, chamou de “a coisa mais gostosa” criado pela OpenAI até agora, mas pesquisas sugerem que alguns dos resultados não são tão agradáveis, afinal. A OpenAI também sabe disso e reconheceu o problema no DALL-E 2 GitHubGenericName repositório. Há também alguns precedentes para isso. Do conglomerado chinês Xiaomi abre o código de seu divertido projeto de cachorro cibernético para um gigante financeiro como Goldman Sachs de locação engenheiros externos mexem em alguns de seus sistemas de gerenciamento de preços e gerenciamento de riscos baseados em ML, já há alguns precedentes para começar.
Em um mundo profundamente envolvido com produtos feitos por titãs como Google, Amazon, Apple, Meta e Microsoft, o código aberto para produtos alimentados por IA é de importância crítica. Tomemos, por exemplo, um algoritmo imaginário de moderação de conteúdo alimentado por IA, que foi treinado a portas fechadas usando dados provenientes principalmente da demografia ocidental. Pode funcionar, mas quando se trata de moderar bilhões de arquivos de mídia enviados por centenas de milhões de usuários com diferentes recursos faciais e idiomas, como o sistema de moderação baseado em IA, está destinado a vacilar. No entanto, não é uma preocupação imaginária, pois o Facebook cortejou um intenso escrutínio por negligenciar esses mercados não ingleses e não americanos, com alguns resultados terríveis decorrentes dessa ignorância. Em um mundo que está adotando cada vez mais sistemas baseados em IA para tudo, desde classificar currículos de candidatos para um emprego até avaliar solicitações relacionadas a empréstimos e moradia, um sistema que não seja inclusivo terá algumas ramificações sérias no mundo real.
Basta dar uma olhada em como os algoritmos em plataformas como TikTok e Instagram foram ajustados por trás de véus para manter os usuários engajados, alimentando-os com um fluxo interminável de conteúdo com curadoria de uma IA comportamental. Os programas de IA de código aberto não apenas aumentarão a taxa de desenvolvimento, mas também garantirão que produtos de IA com impacto tão crítico não sejam implantados antes de algum brainstorming com um painel diversificado, para que quaisquer brechas ou problemas sejam resolvidos no devido tempo. Além da IA de código aberto, os especialistas também exigiram regulamentação, o estabelecimento de consórcios de ética para evitar o abuso de IAe o desenvolvimento de iniciativas financiadas pelo governo que podem apoiar especialistas que desejam examinar e melhorar os produtos de IA que afetarão a vida das pessoas diariamente.
Fontes: Forbes, GitHubGenericName, Jornal de Wall Street