Skip to main content

A resposta complexa para saber se a IA é boa ou ruim… Confira este post e descubra por quê respostas como simples “sim” ou “não” são vazias.

A inteligência artificial é uma ferramenta inovadora do futuro ou uma caixa de Pandora? Desvendando o debate moral sobre a inteligência artificial…

Mas e aí? A IA é boa ou ruim?

Não sabemos como nos sentimos sobre a IA.

Desde que o ChatGPT foi lançado em 2022, a febre da IA generativa tem alimentado simultaneamente medo e hype, deixando o público ainda mais incerto sobre o que acreditar.

Segundo o relatório anual do barômetro de confiança da Edelman, os americanos têm se tornado menos confiáveis em relação à tecnologia ano após ano.

Boa parte dos americanos deseja transparência e limites em torno do uso da IA – mas nem todos já utilizaram as ferramentas.

Pessoas com menos de 40 anos e americanos com ensino superior têm mais consciência e são mais propensos a usar a IA generativa, de acordo com uma pesquisa nacional de junho da BlueLabs relatada pelo Axios.

Claro, o otimismo também segue linhas políticas: a pesquisa da BlueLabs descobriu que um em cada três republicanos acreditam que a IA está impactando negativamente a vida cotidiana, em comparação com um em cada cinco democratas.

Uma pesquisa Ipsos de abril chegou a conclusões semelhantes.

Independentemente de confiar ou não, não há muito debate sobre se a IA tem o potencial de ser uma ferramenta poderosa.

O presidente Vladimir Putin disse aos estudantes russos no primeiro dia de aula em 2017 que quem liderar a corrida da IA se tornará o “soberano do mundo”.

Elon Musk retweetou um artigo do Verge que incluía a citação de Putin e acrescentou que “a competição pela superioridade da IA em nível nacional é provavelmente a causa da WW3, na minha opinião.” Isso foi há seis anos.

Essas discussões levantam uma questão imperativa: A IA é boa ou ruim?

É uma pergunta importante, mas a resposta é mais complicada do que “sim” ou “não”.

Existem maneiras pelas quais a IA generativa é usada que são promissoras, poderiam aumentar a eficiência e poderiam resolver alguns dos problemas da sociedade.

Mas também existem maneiras pelas quais a IA generativa pode ser usada que são sombrias, até sinistras, e têm o potencial de aumentar a lacuna de riqueza, destruir empregos e espalhar desinformação.

No final, se a IA é boa ou ruim depende de como é usada e por quem.

A resposta complexa para saber se a IA é boa ou ruim… Confira este post e descubra por quê respostas como simples "sim" ou "não" são vazias.

Usos positivos da IA generativa

O grande ponto positivo da IA que as gigantes de tecnologia prometem é a eficiência.

A IA pode automatizar tarefas repetitivas em campos como entrada e processamento de dados, atendimento ao cliente, gestão de inventário, análise de dados, gestão de mídia social, análise financeira, tradução de idiomas, geração de conteúdo, assistentes pessoais, aprendizado virtual, classificação e filtragem de e-mails e otimização da cadeia de suprimentos, tornando as tarefas tediosas um pouco mais fáceis para os trabalhadores.

Você pode usar a IA para criar um plano de exercícios ou ajudar a criar um itinerário de viagem.

Alguns professores a usam para aprimorar seu trabalho.

Por exemplo, Gloria Washington, professora assistente na Universidade Howard e membro do Instituto de Engenheiros Eletricistas e Eletrônicos, usa o ChatGPT como uma ferramenta para tornar sua vida mais fácil onde pode.

Ela disse ao Mashable que usa o ChatGPT por duas razões principais: encontrar informações rapidamente e trabalhar de maneira diferente como educadora.

“Se estou escrevendo um e-mail e quero parecer que realmente sei do que estou falando… vou passá-lo pelo ChatGPT para me dar algumas dicas rápidas sobre como melhorar a forma como digo as informações no e-mail ou na comunicação em geral,” disse Washington.

“Ou se estou fazendo um discurso, [pedirei ajuda ao ChatGPT] em algo bem rápido que eu possa incorporar facilmente aos meus pontos de discussão.”

Como educadora, está revolucionando sua abordagem para atribuir tarefas de casa.

Ela também incentiva os alunos a usarem o ChatGPT para ajudar em e-mails e linguagens de programação.

Mas ainda é uma tecnologia relativamente nova, e você consegue perceber isso.

Enquanto 80% dos professores disseram que receberam “treinamento formal sobre políticas e procedimentos de uso de IA generativa”, apenas 28% dos professores disseram “que receberam orientação sobre como responder se suspeitarem que um aluno usou IA generativa de maneiras que não são permitidas, como plágio”, de acordo com pesquisas do Centro para Democracia e Tecnologia.

“Em nossa pesquisa no ano letivo passado, vimos escolas lutando para adotar políticas em torno do uso de IA generativa, e estamos animados em ver grandes avanços desde então,” disse a presidente e CEO do Centro para Democracia e Tecnologia, Alexandra Reeve Givens, em um comunicado à imprensa.

“Mas os maiores riscos dessa tecnologia sendo usada nas escolas não estão sendo abordados, devido a lacunas na formação e orientação aos educadores sobre o uso responsável de IA generativa e ferramentas de detecção relacionadas.

Como resultado, os professores continuam desconfiados dos alunos, e mais alunos estão tendo problemas.”

A IA pode melhorar a eficiência e reduzir erros humanos nas indústrias de manufatura, logística e atendimento ao cliente.

Pode acelerar a pesquisa científica, analisando grandes conjuntos de dados, simulando sistemas complexos e ajudando a descobertas orientadas por dados.

Pode ser usada para otimizar o consumo de recursos, monitorar a poluição e desenvolver soluções sustentáveis para desafios ambientais.

As ferramentas alimentadas por IA podem melhorar experiências de aprendizado personalizadas e tornar a educação mais acessível a uma variedade maior de indivíduos.

A IA tem o potencial de revolucionar diagnósticos médicos, descoberta de medicamentos e planos de tratamento personalizados.

Os aspectos positivos são inegáveis, mas isso não significa que os aspectos negativos devam ser ignorados, disse Camille Carlton, gerente sênior de políticas do Centro para Tecnologia Humana, ao Mashable.

“Eu não acho que esses potenciais benefícios futuros deveriam estar impulsionando nossas decisões de não prestar atenção e estabelecer limites em torno dessas tecnologias hoje,” ela disse. “Porque o potencial para essas tecnologias aumentarem a desigualdade, aumentarem a polarização, continuarem [a afetar a deterioração da nossa] saúde mental, [e] aumentarem o viés sistêmico, são todos muito reais e estão acontecendo agora.”

A resposta complexa para saber se a IA é boa ou ruim… Confira este post e descubra por quê respostas como simples "sim" ou "não" são vazias.

Aspectos negativos da IA generativa

Você pode considerar qualquer pessoa que teme aspectos negativos da IA generativa como um ludita, e talvez eles sejam — mas em um sentido mais literal do que como a palavra é usada hoje.

Os luditas eram um grupo de trabalhadores ingleses no início dos anos 1800 que destruíram máquinas automatizadas de manufatura têxtil — não porque temiam a tecnologia, mas porque não havia nada em vigor para garantir que seus empregos estivessem a salvo da substituição pela tecnologia.

Além disso, eles não estavam apenas economicamente precários — estavam passando fome por causa das máquinas.

Agora, é claro, a palavra é usada para descrever de forma pejorativa uma pessoa que teme ou evita novas tecnologias simplesmente porque são novas tecnologias.

Na realidade, há muitos casos de uso questionáveis para a IA generativa.

Quando consideramos a saúde, por exemplo, há muitas variáveis para se preocupar antes de confiarmos na IA com nosso bem-estar físico e mental.

A IA pode automatizar tarefas repetitivas como diagnósticos de saúde, analisando imagens médicas via raios-X e ressonâncias magnéticas para ajudar a diagnosticar doenças e identificar anormalidades — o que pode ser bom, mas a maioria dos americanos está preocupada com o aumento do uso da IA na área da saúde, de acordo com uma pesquisa da Morning Consult.

Seu medo é razoável: Os dados de treinamento na medicina muitas vezes são incompletos, tendenciosos ou imprecisos, e a tecnologia é tão boa quanto os dados que possui, o que pode levar a diagnósticos incorretos, recomendações de tratamento ou conclusões de pesquisa.

Além disso, os dados de treinamento médico muitas vezes não são representativos de populações diversas, o que poderia resultar em acesso desigual a diagnósticos e tratamentos precisos — especialmente para pacientes de cor.

Os modelos de IA generativa não entendem a sutileza médica, não podem fornecer nenhum tipo de atendimento empático, carecem de responsabilidade e podem ser interpretados erroneamente por profissionais médicos.

E torna-se muito mais difícil garantir a privacidade do paciente quando os dados estão passando pela IA, obter consentimento informado e evitar o uso indevido de conteúdo gerado tornam-se questões críticas.

“O público o vê como algo que tudo o que ele produz é como Deus,” disse Washington. “E infelizmente isso não é verdade.” Washington destaca que a maioria dos modelos de IA generativa é criada coletando informações da internet — e nem tudo na internet é preciso ou livre de viés.

O potencial de automação da IA também pode levar ao desemprego e à desigualdade econômica.

Em março, o Goldman Sachs previu que a IA poderia eventualmente substituir 300 milhões de empregos em tempo integral globalmente, afetando quase um quinto do emprego.

A IA eliminou quase 4.000 empregos em maio de 2023 e mais de um terço dos líderes empresariais dizem que a IA substituiu trabalhadores no ano passado, de acordo com a CNBC.

Isso levou os sindicatos em indústrias criativas, como o SAG-AFTRA, a lutar por uma proteção mais abrangente contra a IA.

O novo gerador de vídeo de IA da OpenAI, Sora, torna a ameaça de substituição de empregos ainda mais real para as indústrias criativas, com sua capacidade de gerar vídeos fotorrealistas a partir de um prompt simples.

Se chegarmos a um ponto em que podemos encontrar uma cura para o câncer com IA, isso acontece antes que a desigualdade seja tão terrível que tenhamos completa instabilidade social?” Carlton questionou. “Isso acontece depois que a polarização continua a aumentar? Isso acontece depois que vemos mais declínio democrático?”

Não sabemos.

O medo com a IA não é necessariamente que o filme de ficção científica “Eu, Robô” se torne algum tipo de documentário, mas sim que as pessoas que escolhem usá-la podem não ter as melhores intenções — ou até mesmo conhecer as repercussões de seu próprio trabalho.

“Essa ideia de que a inteligência artificial vai progredir a ponto de os humanos não terem mais trabalho ou não terem mais propósito nunca fez sentido para mim,” disse Sam Altman, o CEO da OpenAI, que lançou o ChatGPT, no ano passado.

“Haverá pessoas que escolherão não trabalhar, e acho isso ótimo. Acredito que essa deveria ser uma escolha válida, e existem muitas outras maneiras de encontrar significado na vida. Mas nunca vi evidências convincentes de que, com ferramentas melhores, trabalhamos menos.”

Aqui estão mais alguns casos de uso questionáveis para a inteligência artificial:

  1. Pode ser usada para vigilância invasiva, mineração de dados e perfis, representando riscos à privacidade individual e às liberdades civis.
  2. Se não for cuidadosamente desenvolvida, sistemas de IA podem herdar preconceitos de seus dados de treinamento, levando a resultados discriminatórios em áreas como contratação, empréstimos e justiça criminal.
  3. A IA pode levantar questões éticas, como o potencial para armas autônomas, tomadas de decisão em situações críticas e os direitos das entidades de IA.
  4. A dependência excessiva de sistemas de IA pode levar à perda de controle humano e tomada de decisões, potencialmente afetando a capacidade da sociedade de entender e abordar questões complexas.

E então há a desinformação. Não acredite apenas em mim – Altman também teme isso.

“Estou particularmente preocupado que esses modelos possam ser usados para desinformação em grande escala,” disse Altman. “Agora que estão melhorando na escrita de códigos de computador, [eles] poderiam ser usados para ataques cibernéticos ofensivos.” Por exemplo, considere as ligações robóticas geradas por voz pela IA para se parecerem com o Presidente Joe Biden.

A IA generativa é ótima para criar desinformação, disse a professora da Universidade de Washington, Kate Starbird, à Axios. O MIT Technology Review até relatou que os humanos têm mais probabilidade de acreditar em desinformação gerada por IA do que por outros humanos.

“A IA generativa cria conteúdo que soa razoável e plausível, mas tem pouco cuidado com a precisão,” disse Starbird. “Em outras palavras, ela funciona como um gerador de [besteiras].” De fato, alguns estudos mostram que a desinformação gerada por IA é ainda mais persuasiva do que o conteúdo falso criado por humanos.

A resposta complexa para saber se a IA é boa ou ruim… Confira este post e descubra por quê respostas como simples "sim" ou "não" são vazias.

O que tudo isso significa?

“Em vez de fazer essa pergunta sobre o saldo positivo ou negativo… o que é mais benéfico para todos nós estarmos perguntando é, bom como?” disse Carlton. “Quais são os custos desses sistemas para nos levar ao lugar melhor que estamos tentando chegar? E bom para quem, quem vai experimentar este lugar melhor? Como os benefícios serão distribuídos para aqueles deixados para trás? Quando esses benefícios aparecem? Eles aparecem depois que os danos já aconteceram — uma sociedade com pior saúde mental, pior polarização? E a direção que estamos seguindo reflete nossos valores? Estamos criando o mundo no qual queremos viver?”

Os governos perceberam os riscos da IA e criaram regulamentações para mitigar os danos.

O Parlamento Europeu aprovou um amplo “Ato de IA” para proteger contra aplicações de IA de alto risco, e a Administração Biden assinou uma ordem executiva para abordar preocupações com a IA em segurança cibernética e biometria.

A IA generativa faz parte de nosso interesse inato em crescimento e progresso, avançando o mais rápido possível em uma corrida para ser maior, melhor e mais tecnologicamente avançado do que nossos vizinhos. Como Donella Meadows, a cientista ambiental e educadora que escreveu Os Limites do Crescimento e Pensando em Sistemas: Um Guia Pergunta, Por quê?

“O crescimento é um dos propósitos mais estúpidos já inventados por qualquer cultura; precisamos ter um ‘suficiente’,” disse Meadows. “Devemos sempre perguntar ‘crescimento de quê, e por quê, e para quem, e quem paga o custo, e por quanto tempo pode durar, e qual é o custo para o planeta, e quanto é o suficiente?'”

O objetivo inteiro da IA generativa é recriar a inteligência humana.

Mas quem está decidindo esse padrão? Normalmente, essa resposta são elites brancas e ricas.

E quem decidiu que a falta de inteligência humana é um problema afinal? Talvez precisemos de mais empatia — algo que a IA não pode calcular.

Créditos: Mashable


Pedro Londe

Palestrante e autor do livro “O que diabos é Gig Economy?: Como ter várias fontes de renda e aproveitar ao máximo todas as suas habilidades”

Pedro Londe

Brasileiro com orgulho, Pedro Londe trabalha com auditoria e tecnologia no Governo Federal há mais de 10 anos, atua como palestrante e pesquisador e adora tudo que envolva inteligência artificial e dados. Ele também escreve livros de não-ficção para pessoas curiosas e questionadoras. Educador por opção, o autor acredita no poder das palavras, da disciplina e da família para um mundo melhor. Compartilhar experiências e aprender é a grande missão de Pedro Londe.

Um Comentário

Deixe uma resposta

Fique por dentro das melhores novidades sobre inteligência artificial

Receba conteúdos inéditos no seu email