O que você está procurando?

SOU ALUNO

Criadores contra criatura?

Elon Musk e mais de mil acadêmicos pedem pausa no desenvolvimento de inteligências artificiais e especialista faz análise.

Você se lembra dos filmes de ficção científica em que pessoas criam máquinas e inteligências superpotentes que evoluem negativamente, produzindo um cenário cercado de distopias? O enredo se repete e o fim costuma ser um só: criadores se voltam contra as próprias “criaturas”, na tentativa de reverter os estragos causados pela “invenção”.

Parece que os roteiros cinematográficos invadiram a realidade e é provável que esta história ganhe novos capítulos nas próximas semanas. No último dia 29, Elon Musk – que foi um dos investidores iniciais da Open AI para a criação do ChatGPT –  e mais de mil outros acadêmicos e executivos de tecnologia, publicaram uma carta aberta, solicitando que empresas de todo o mundo pausem, temporariamente, o desenvolvimento de novas tecnologias de inteligência artificial (IA). A justificativa foi denominada, por eles, como “perigosa corrida armamentista”. 

Desde que foi criada, a carta divulgada pelo Future of Life Institute tem ganhado apoio de centenas de outros empresários e acadêmicos da área. Em um dos trechos, a publicação alerta para os riscos à sociedade. 

” Pedimos a todos os laboratórios de IA que pausem imediatamente, por pelo menos seis meses, os treinamentos de sistemas de IA mais poderosos do que o GPT-4 (a versão mais atual do ChatGPT). Esta pausa precisa ser pública e verificável, e incluir todos os atores relevantes. Se esta pausa não puder ser colocada em prática rapidamente, os governos devem tomar medidas e estabelecerem uma moratória (…)Todos os sistemas com inteligência que rivalizem com a humana podem apresentar riscos profundos à sociedade e à humanidade”

Além de Musk, pesquisadores da Microsoft, Amazon, Google e Meta e professores do MIT, da Universidade de Montreal e outras instituições também estão entre os primeiros mil assinantes da solicitação. 

Riscos incalculáveis

Na carta, são abordados aspectos tecnológicos e sociais. Em resumo, os assinantes afirmam que não é possível mensurar os estragos, sem uma pausa estratégica e consciente em toda a corrida pelo desenvolvimento das tecnologias. Além disso, ela reforça os riscos de injustiças sociais relacionadas ao avanço da IA. 

“Devemos automatizar todas as profissões? Devemos desenvolver cérebros não-humanos que podem eventualmente nos exceder em número e inteligência, nos tornar obsoletos e nos substituir? Devemos perder o controle da nossa civilização? (…)Essas decisões não devem ser tomadas por líderes da área de tecnologia que não foram eleitos. Sistemas de IA poderosos devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos sejam positivos e seus riscos possam ser gerenciáveis.”

Reino Unido e outras nações movimentam suas próprias recomendações

Segundo comunicado oficial,  o governo do Reino Unido diz que vai recomendar ao Departamento de Ciência, Inovação e Tecnologia (DSIT) que sejam aplicados regulamentos já existentes para que as indústrias de inteligência artificial sejam conduzidas de acordo com as leis locais. 

Para o eles, cinco princípios precisam ser seguidos pelas empresas da área: 

“Nos próximos doze meses, os reguladores emitirão orientações práticas para as organizações, bem como outras ferramentas e recursos, como modelos de avaliação de risco, para definir como implementar esses princípios em seus setores”, afirmou o governo do Reino Unido.

Para além dessa movimentação, a União Europeia também afirma estar buscando alternativas. Ela prepara sua própria legislação sobre a utilização da IA na Europa e poderá sugerir multas para corporações que infringirem as regras

Já a China afirmou, por meio do governo, que fez exigências às empresas de tecnologia para que fossem entregues detalhes sobre os algoritmos das inteligências artificiais desenvolvidas no país. 

Sociedade: para onde estamos caminhando?

Para a machine learning engineer e cientista de dados, Rafaela Martins Vieira, o grande conjunto de dados pode ser uma das explicações para os riscos que envolvem todo este cenário. 

Copia de 2023 03 05 16 54 55 125 1 edited

Entretanto, a especialista afirma que as análises precisam ser feitas por todos os lados. Segundo a cientista de dados, a equipe de desenvolvimento do ChatGPT diz já estar trabalhando para equilibrar os riscos e minimizar os problemas que podem surgir. 

“As preocupações são bastante válidas, especialmente quando se trata de uma ferramenta ligada à informação e pesquisa. No entanto, a equipe de desenvolvimento do ChatGPT já afirmou que trabalha para minimizar esses riscos. Eles utilizam conjuntos de dados de texto mais éticos e inclusivos, fazem uso de amostragem equilibrada, normalização de dados e revisão humana para minimizar o viés e o preconceito, além de outras técnicas que buscam mitigar esses problemas.”

Especialista acredita que pausas não devem se sustentar

Rafaela Martins Vieira reconhece as limitações da ferramenta e acredita que um dos principais desafios está na prevenção e controle do funcionamento do modelo, com base na complexidade deles. Apesar disso, ela afirma que já existem técnicas para diluir os efeitos. 

“É importante destacar que as tecnologias de inteligência artificial têm limitações, principalmente para a equipe que as desenvolve, em entender, prever e controlar de forma confiável o funcionamento do modelo. Isso ocorre porque os modelos de IA são complexos e podem ter muitos pontos de falha difíceis de rastrear. No entanto, existem técnicas para interpretabilidade de modelos e práticas de desenvolvimento responsável.”

Em contrapartida, a especialista não acredita em uma “pausa” dos avanços, já que eles são importantes para o desenvolvimento da sociedade. Ela propõe um olhar para a conscientização das empresas sobre os cuidados inerentes à produção dessas inteligências, impulsionada por uma cobrança social

“Acredito que toda essa comoção sobre parar avanços da inteligência artificial não se sustenta, já que esse avanço é importante para a sociedade, contribuindo e auxiliando a vida de muitas pessoas. No entanto, é preciso existir uma cobrança social para que as empresas de desenvolvimento se atentem aos riscos que essas ferramentas podem impactar.”

Autor

Artigos relacionados

Utilizamos cookies e outras tecnologias semelhantes para melhorar a sua experiência e recomendar produtos e conteúdos de seu interesse em nossos sites e em serviços de terceiros. Ao navegar pelo site, você concorda com estas condições e com nossa Política de Privacidade e Proteção de Dados.

ENTENDI