Reino Unido abre escritório em São Francisco para enfrentar o risco de IA
Antes do início da cúpula de segurança de IA em Seul, Coreia do Sul ainda esta semana, o seu co-anfitrião, o Reino Unido, está a expandir os seus próprios esforços neste domínio. O AI Safety Institute – um órgão do Reino Unido criado em novembro de 2023 com o ambicioso objetivo de avaliar e abordar riscos em plataformas de IA – disse que abrirá um segundo local… em São Francisco.
A ideia é aproximar-se do que é atualmente o epicentro do desenvolvimento da IA, sendo a Bay Area o lar da OpenAI, Anthropic, Google e Meta, entre outras, construindo tecnologia de IA fundamental.
Os modelos fundamentais são os blocos de construção dos serviços generativos de IA e de outras aplicações, e é interessante que, embora o Reino Unido tenha assinado um memorando de entendimento com os EUA para que os dois países colaborem em iniciativas de segurança da IA, o Reino Unido ainda esteja optando por investir na construção de um presença direta nos EUA para resolver o problema.
“Ter pessoas em São Francisco lhes dará acesso às sedes de muitas dessas empresas de IA”, disse Michelle Donelan, secretária de estado de ciência, inovação e tecnologia do Reino Unido, em entrevista ao TechCrunch. “Vários deles têm bases aqui no Reino Unido, mas achamos que seria muito útil ter uma base lá também, e ter acesso a um conjunto adicional de talentos, e poder trabalhar de forma ainda mais colaborativa e de mãos dadas. com os Estados Unidos.”
Parte da razão é que, para o Reino Unido, estar mais próximo desse epicentro é útil não apenas para compreender o que está a ser construído, mas porque dá ao Reino Unido mais visibilidade junto destas empresas – importante, dado que a IA e a tecnologia em geral são vistas por o Reino Unido como uma enorme oportunidade para o crescimento económico e o investimento.
E dado o último drama da OpenAI em torno de seu Equipe de superalinhamentoparece um momento especialmente oportuno para estabelecer uma presença ali.
O AI Safety Institute, lançado em novembro de 2023, é atualmente um negócio relativamente modesto. A organização hoje tem apenas 32 pessoas trabalhando nela, um verdadeiro David ao Golias da tecnologia de IA, quando você considera os bilhões de dólares de investimento que estão sendo investidos nas empresas que constroem modelos de IA e, portanto, suas próprias motivações econômicas para obter suas tecnologias. sai pela porta e chega às mãos de usuários pagantes.
Um dos desenvolvimentos mais notáveis do AI Safety Institute foi o lançamento, no início deste mês, do Inspecionarseu primeiro conjunto de ferramentas para testar a segurança de modelos básicos de IA.
Donelan referiu-se hoje a esse lançamento como um esforço de “fase um”. Não só tem comprovadamente desafiador até o momento, com modelos de referência, mas por enquanto o envolvimento é um acordo opcional e inconsistente. Como salientou uma fonte sénior de um regulador do Reino Unido, as empresas não têm qualquer obrigação legal de ter os seus modelos examinados neste momento; e nem toda empresa está disposta a ter modelos avaliados antes do lançamento. Isso pode significar que, nos casos em que o risco possa ser identificado, o cavalo já pode ter fugido.
Donelan disse que o AI Safety Institute ainda está desenvolvendo a melhor forma de interagir com empresas de IA para avaliá-las. “Nosso processo de avaliação é uma ciência emergente por si só”, disse ela. “Assim, a cada avaliação, desenvolveremos o processo e o aperfeiçoaremos ainda mais.”
Donelan disse que um dos objetivos em Seul seria apresentar o Inspect aos reguladores reunidos na cúpula, com o objetivo de fazer com que eles também o adotassem.
“Agora temos um sistema de avaliação. A segunda fase também precisa ser sobre tornar a IA segura para toda a sociedade”, disse ela.
A longo prazo, Donelan acredita que o Reino Unido irá elaborar mais legislação sobre IA, embora, repetindo o que o primeiro-ministro Rishi Sunak disse sobre o tema, resistirá a fazê-lo até compreender melhor o âmbito dos riscos da IA.
“Não acreditamos em legislar antes de termos o controlo adequado e a compreensão total”, disse ela, observando que o recente relatório internacional de segurança da IA, publicado pelo instituto se concentrou principalmente na tentativa de obter uma imagem abrangente da investigação até à data, “destacou que faltam grandes lacunas e que precisamos de incentivar e encorajar mais investigação a nível mundial.
“E também a legislação demora cerca de um ano no Reino Unido. E se tivéssemos apenas iniciado a legislação quando começámos, em vez de (organizar) a Cimeira de Segurança da IA (realizada em novembro do ano passado), ainda estaríamos a legislar agora e não teríamos realmente nada para mostrar sobre isso.”
“Desde o primeiro dia do Instituto, temos sido claros sobre a importância de adotar uma abordagem internacional para a segurança da IA, compartilhar pesquisas e trabalhar em colaboração com outros países para testar modelos e antecipar os riscos da IA de fronteira”, disse Ian Hogarth, presidente do o Instituto de Segurança de IA. “Hoje marca um momento crucial que nos permite avançar ainda mais nesta agenda e estamos orgulhosos de expandir as nossas operações numa área repleta de talentos tecnológicos, somando-se à incrível experiência que a nossa equipa em Londres trouxe desde o início.”