No emocionante mundo da inteligência artificial, duas grandes potências, OpenAI e Anthropic, firmaram um acordo inovador com o US AI Safety Institute. Este instituto, criado pela ordem executiva do presidente Biden em 2023, tem como missão aprimorar a segurança dos modelos de IA, oferecendo feedback valioso para que as empresas possam melhorar suas criações antes e depois de seus lançamentos. O CEO da OpenAI, Sam Altman, já havia insinuado a respeito desse acordo anteriormente, gerando muita expectativa na comunidade geek.
A parceria entre essas gigantes da tecnologia e o US AI Safety Institute promete revolucionar a forma como a segurança é integrada ao desenvolvimento de sistemas de inteligência artificial. Embora ainda não tenha especificado outras empresas participantes, o Google já indicou que está em conversações com o instituto e deverá compartilhar mais detalhes em breve. Enquanto isso, a companhia lançou novos modelos de chatbots e geradores de imagens, pelo projeto Gemini, mostrando que a corrida pela inovação continua acelerada.
Elizabeth Kelly, diretora do US AI Safety Institute, destacou a importância desses acordos: “A segurança é essencial para alimentar a inovação tecnológica revolucionária. Com esses acordos em vigor, estamos ansiosos para começar nossas colaborações técnicas com a Anthropic e a OpenAI para avançar a ciência da segurança da IA”. Para ela, esses são apenas os primeiros passos em um esforço contínuo para garantir um futuro responsável para a inteligência artificial.
Como parte do National Institute of Standards and Technology (NIST), o US AI Safety Institute se dedica a desenvolver diretrizes e melhores práticas para avaliar sistemas de IA que podem ser potencialmente perigosos. A vice-presidente Kamala Harris enfatizou a dualidade do potencial da IA, ao mencionar os riscos que a tecnologia traz, desde ataques cibernéticos até o uso irresponsável em armas biológicas.
O primeiro acordo formal é um Memorando de Entendimento, que permite ao instituto acesso a “principais novos modelos” das empresas antes e após seus lançamentos. Essencialmente, esses acordos são uma forma de pesquisa colaborativa que visa medir capacidades e riscos associados aos sistemas de IA. Além disso, o US AI Safety Institute vai trabalhar em parceria com o UK AI Safety Institute, evidenciando a importância da segurança em escala global.
Enquanto isso, a legislação também começa a tomar forma. Reguladores em nível estadual e federal estão em busca de estabelecer normas para mitigar os riscos associados à IA. Recentemente, a Assembleia Estadual da Califórnia aprovou o projeto de lei de segurança de IA (SB 10147), exigindo testes rigorosos para modelos que custam mais de $100 milhões para desenvolver ou que requerem uma quantidade significativa de poder computacional. O projeto estipula que as empresas devem ter mecanismos de desligamento automáticos para interromper modelos que se tornem “pesados ou incontroláveis”.
Ao contrário do acordo com o governo federal, que é não vinculativo, a legislação da Califórnia possui força legal e permitirá que o procurador-geral do estado tome ações legais se os desenvolvedores violarem as normas, especialmente em situações de risco elevado. Contudo, a proposta ainda precisa passar por uma última votação e obter a assinatura do governador Gavin Newsom, que terá até o final de setembro para decidir sobre o futuro da legislação.
Este é um momento crucial para o desenvolvimento da IA, e todos os olhos estão voltados para essas iniciativas que buscam um equilíbrio entre inovação e segurança. Para os geeks e nerds do mundo da tecnologia, a interação entre essas forças emblemáticas pode moldar o futuro das inteligências artificiais e seu impacto em nossas vidas diárias.