Mulheres na IA: Irene Solaiman, chefe de política global da Hugging Face

Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch está lançando um série de entrevistas focando em mulheres notáveis ​​que contribuíram para a revolução da IA. Publicaremos vários artigos ao longo do ano à medida que o boom da IA ​​continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.

Irene Solaiman iniciou sua carreira em IA como pesquisadora e gerente de políticas públicas na OpenAI, onde liderou uma nova abordagem para o lançamento de GPT-2, um antecessor do ChatGPT. Depois de atuar como gerente de políticas de IA na Zillow por quase um ano, ela ingressou na Hugging Face como chefe de política global. Suas responsabilidades vão desde a construção e liderança global da política de IA da empresa até a condução de pesquisas sociotécnicas.

Solaiman também assessora o Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), a associação profissional de engenharia eletrônica, em questões de IA, e é um especialista reconhecido em IA na Organização intergovernamental para Cooperação e Desenvolvimento Econômico (OCDE).

Irene Solaiman, chefe de política global da Hugging Face

Resumidamente, como você começou na IA? O que te atraiu para a área?

Uma carreira totalmente não linear é comum na IA. Meu interesse inicial começou da mesma forma que muitos adolescentes com habilidades sociais estranhas encontram suas paixões: por meio da mídia de ficção científica. Inicialmente, estudei política de direitos humanos e depois fiz cursos de ciência da computação, pois via a IA como um meio de trabalhar nos direitos humanos e construir um futuro melhor. Ser capaz de fazer pesquisas técnicas e liderar políticas em uma área com tantas perguntas sem resposta e caminhos não percorridos mantém meu trabalho estimulante.

De qual trabalho você mais se orgulha (na área de IA)?

Fico muito orgulhoso quando minha experiência repercute em pessoas de todo o campo de IA, especialmente quando escrevo sobre considerações de lançamento no cenário complexo de lançamentos e abertura de sistemas de IA. Vendo meu papel em um Implantação técnica do quadro AI Release Gradient discussões imediatas entre cientistas e usadas em relatórios governamentais são afirmativas — e um bom sinal de que estou trabalhando na direção certa! Pessoalmente, parte do trabalho que mais me motiva é o alinhamento de valores culturais, que se dedica a garantir que os sistemas funcionem melhor para as culturas nas quais são implantados. Com minha incrível coautora e agora querida amiga, Christy Dennison, trabalhando em um Processo de Adaptação de Modelos de Linguagem à Sociedade foi um projeto de todo o coração (e muitas horas de depuração) que moldou o trabalho de segurança e alinhamento hoje.

Como você enfrenta os desafios da indústria de tecnologia dominada pelos homens e, por extensão, da indústria de IA dominada pelos homens?

Encontrei, e ainda estou encontrando, meu pessoal – desde trabalhar com líderes empresariais incríveis que se preocupam profundamente com as mesmas questões que priorizo ​​até grandes coautores de pesquisa com quem posso iniciar cada sessão de trabalho com uma mini sessão de terapia. Os grupos de afinidade são extremamente úteis na construção de uma comunidade e no compartilhamento de dicas. É importante destacar aqui a interseccionalidade; minhas comunidades de pesquisadores muçulmanos e BIPOC são continuamente inspiradoras.

Que conselho você daria às mulheres que desejam ingressar na área de IA?

Tenha um grupo de apoio cujo sucesso é o seu sucesso. Em termos juvenis, acredito que esta é uma “garota de menina”. As mesmas mulheres e aliadas com quem entrei neste campo são meus encontros favoritos para tomar café e ligações de pânico tarde da noite antes do prazo. Um dos melhores conselhos de carreira que li foi de Arvind Narayan na plataforma anteriormente conhecida como Twitter, que estabelece o “Princípio de Liam Neeson” de não ser o mais inteligente de todos, mas ter um conjunto específico de habilidades.

Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?

As próprias questões mais prementes evoluem, por isso a meta resposta é: Coordenação internacional para sistemas mais seguros para todos os povos. As pessoas que utilizam e são afetadas por sistemas, mesmo no mesmo país, têm preferências e ideias variadas sobre o que é mais seguro para elas. E as questões que surgirão dependerão não apenas de como a IA evoluir, mas do ambiente em que for implantada; as prioridades de segurança e as nossas definições de capacidade diferem regionalmente, tal como uma maior ameaça de ataques cibernéticos a infraestruturas críticas em economias mais digitalizadas.

Quais são alguns problemas dos quais os usuários de IA devem estar cientes?

As soluções técnicas raramente, ou nunca, abordam riscos e danos de forma holística. Embora existam medidas que os utilizadores podem tomar para aumentar a sua literacia em IA, é importante investir numa multiplicidade de salvaguardas para os riscos à medida que evoluem. Por exemplo, estou entusiasmado com mais pesquisas sobre marcas d’água como ferramenta técnica, e também precisamos de orientação coordenada dos legisladores sobre a distribuição de conteúdo gerado, especialmente em plataformas de mídia social.

Qual é a melhor maneira de construir IA com responsabilidade?

Com as populações afetadas e reavaliando constantemente os nossos métodos de avaliação e implementação de técnicas de segurança. Tanto as aplicações benéficas quanto os danos potenciais evoluem constantemente e exigem feedback iterativo. Os meios pelos quais melhoramos a segurança da IA ​​devem ser examinados coletivamente como um campo. As avaliações mais populares para modelos em 2024 são muito mais robustas do que aquelas que realizei em 2019. Hoje, estou muito mais otimista em relação às avaliações técnicas do que em relação à equipe vermelha. Considero as avaliações humanas extremamente úteis, mas à medida que surgem mais evidências da carga mental e dos custos díspares do feedback humano, estou cada vez mais otimista quanto à padronização das avaliações.

Como podem os investidores promover melhor uma IA responsável?

Eles já estão! Fico feliz em ver muitos investidores e empresas de capital de risco envolvidos ativamente em conversas sobre segurança e políticas, inclusive por meio de cartas abertas e testemunhos no Congresso. Estou ansioso para ouvir mais da experiência dos investidores sobre o que estimula as pequenas empresas em todos os setores, especialmente porque estamos vendo mais uso de IA em campos fora das principais indústrias tecnológicas.

Fuente