Mulheres na IA: Sarah Myers West diz que deveríamos perguntar: 'Por que construir IA afinal?'

Para dar às mulheres acadêmicas focadas em IA e a outros o merecido - e há muito atrasado - tempo sob os holofotes, o TechCrunch tem publicado uma série de entrevistas focadas em mulheres notáveis que contribuíram para a revolução da IA. Estamos publicando essas peças ao longo do ano, à medida que o boom da IA continua, destacando trabalhos-chave que muitas vezes passam despercebidos. Leia mais perfis aqui.

Sarah Myers West é diretora administrativa do instituto AI Now, um instituto de pesquisa americano que estuda as implicações sociais da IA e pesquisas de políticas que abordam a concentração de poder na indústria de tecnologia. Anteriormente, ela atuou como consultora sênior de IA na Comissão Federal de Comércio dos EUA e é cientista pesquisadora visitante na Universidade Northeastern, além de contribuidora de pesquisa no Laboratório de Cidadãos e Tecnologia da Cornell.

Brevemente, como você começou na IA? O que a atraiu para o campo?

Passei os últimos 15 anos interrogando o papel das empresas de tecnologia como atores políticos poderosos enquanto surgiam na linha de frente da governança internacional. No início da minha carreira, tive uma visão privilegiada observando como as empresas de tecnologia dos EUA se apresentavam ao redor do mundo de maneiras que mudaram o cenário político - no Sudeste Asiático, na China, no Oriente Médio e em outros lugares - e escrevi um livro aprofundando em como o lobby da indústria e a regulamentação moldaram as origens do modelo de negócios de vigilância para a internet, apesar de tecnologias que ofereciam alternativas na teoria que na prática falharam em se materializar.

Em muitos momentos da minha carreira, me perguntei: 'Por que estamos sendo presos nessa visão muito distópica do futuro?' A resposta tem pouco a ver com a tecnologia em si e muito a ver com a política pública e a comercialização.

Essa tem sido basicamente minha missão desde então, tanto em minha carreira de pesquisadora quanto agora em meu trabalho político como co-diretora da AI Now. Se a IA faz parte da infraestrutura de nossas vidas diárias, precisamos examinar criticamente as instituições que a produzem e garantir que, como sociedade, haja fricção suficiente - seja por meio de regulamentação ou organização - para garantir que sejam atendidas as necessidades públicas no final do dia, e não as das empresas de tecnologia.

Com que trabalho você mais se orgulha no campo da IA?

Estou muito orgulhosa do trabalho que fizemos na FTC, que é a agência do governo dos EUA que, entre outras coisas, está na linha de frente da aplicação regulatória da inteligência artificial. Adorei arregaçar as mangas e trabalhar em casos. Consegui usar meu treinamento em métodos como pesquisadora para me envolver em trabalhos investigativos, uma vez que o conjunto de ferramentas é essencialmente o mesmo. Foi gratificante usar essas ferramentas para responsabilizar diretamente o poder, e ver este trabalho ter um impacto imediato no público, seja abordando como a IA é usada para desvalorizar trabalhadores e aumentar os preços ou combatendo o comportamento anticompetitivo das grandes empresas de tecnologia.

Conseguimos trazer para bordo uma equipe fantástica de tecnologistas trabalhando sob o Gabinete de Política Científica e Tecnológica da Casa Branca, e foi emocionante ver o trabalho que fizemos ter relevância imediata com o surgimento da IA generativa e a importância da infraestrutura em nuvem.

Quais são alguns dos problemas mais urgentes enfrentados pela IA à medida que ela evolui?

Em primeiro lugar, as tecnologias de IA são amplamente usadas em contextos altamente sensíveis - em hospitais, em escolas, em fronteiras e assim por diante - mas permanecem inadequadamente testadas e validadas. Esta é uma tecnologia propensa a erros, e sabemos por pesquisas independentes que esses erros não são distribuídos de forma igual; prejudicam de forma desproporcional as comunidades que há muito sofrem discriminação. Devemos estabelecer um padrão muito, muito mais alto. Mas tão preocupante para mim é como instituições poderosas estão usando a IA - funcione ou não - para justificar suas ações, desde o uso de armas contra civis em Gaza até a exclusão de trabalhadores. Esse é um problema não na tecnologia, mas no discurso: como orientamos nossa cultura em torno da tecnologia e a ideia de que se a IA está envolvida, certas escolhas ou comportamentos são considerados mais 'objetivos' ou de alguma forma são aceitos.

Qual é a melhor maneira de construir AI de forma responsável?

Precisamos sempre começar pela pergunta: Por que construir IA afinal? O que torna necessário o uso da inteligência artificial, e a tecnologia de IA é adequada para esse propósito? Às vezes, a resposta é construir melhor, e nesse caso os desenvolvedores devem garantir conformidade com a lei, documentar e validar robustamente seus sistemas e tornar aberto e transparente o que podem, para que pesquisadores independentes possam fazer o mesmo. Mas às vezes a resposta não é construir de jeito nenhum: não precisamos de mais armas ou tecnologia de vigilância 'construídas de forma responsável'. O uso final importa para esta questão, e é onde precisamos começar.