织梦CMS - 轻松建站从此开始!

欧博ABG官网-欧博官方网址-会员登入

DG游戏O que é IA ética?

时间:2025-10-14 05:34来源: 作者:admin 点击: 2 次
A ética da IA é um framework que orienta cientistas de dados e pesquisadores a construir sistemas de IA de maneira ética para beneficiar a sociedade c

Ética é um conjunto de princípios morais que nos ajudam a discernir entre o certo e o errado. A ética da IA é um campo multidisciplinar que estuda como otimizar o impacto benéfico da inteligência artificial (IA) e, ao mesmo tempo, reduzir riscos e resultados adversos.

Exemplos de questões éticas de IA incluem responsabilidade e privacidade de dados, imparcialidade, explicabilidade, robustez, transparência, sustentabilidade ambiental, inclusão, agência moral, alinhamento de valores, responsabilidade, confiança e uso indevido de tecnologia. Este artigo tem como objetivo fornecer uma visão abrangente do mercado sobre a ética em IA no setor hoje. Para saber mais sobre o ponto de vista da IBM, veja nossa página de ética em IA aqui.

Com o surgimento do big data, as empresas aumentaram o foco em impulsionar a automação e a tomada de decisões baseada em dados em suas organizações. Embora a intenção seja geralmente, se não sempre, melhorar os resultados de negócios, as empresas estão enfrentando consequências imprevistas em algumas de suas aplicações de IA, particularmente devido a um projeto de pesquisa preliminar inadequado e a conjuntos de dados com viés.

À medida que surgiram exemplos de resultados injustos, novas diretrizes foram criadas, principalmente pelas comunidades de pesquisa e ciência de dados, para abordar as preocupações relacionadas à ética da IA. Empresas líderes no campo da IA também têm demonstrado interesse em moldar essas diretrizes, à medida que elas próprias começaram a experimentar algumas das consequências de não manter padrões éticos em seus produtos. A falta de diligência nessa área pode resultar em exposição reputacional, regulatória e legal, levando a penalidades custosas. Como acontece com todos os avanços tecnológicos, a inovação tende a superar a regulamentação governamental em novos campos emergentes. À medida que a experiência apropriada se desenvolve no setor governamental, podemos esperar mais protocolos de IA para que as empresas sigam, permitindo-lhes evitar violações de direitos humanos e liberdades civis.

Estabelecendo princípios para a ética em IA

Embora tenham sido desenvolvidos regras e protocolos para gerenciar o uso da IA, a comunidade acadêmica tem aproveitado o Relatório Belmont como um meio de orientar a ética na pesquisa experimental e no desenvolvimento algorítmico. Três princípios principais surgiram do Relatório Belmont que servem como guia para o projeto de experimentos e algoritmos:

Respeito pelas pessoas: este princípio reconhece a autonomia dos indivíduos e sustenta a expectativa de que os pesquisadores devem proteger indivíduos com autonomia reduzida, que pode ser causada por várias circunstâncias, como doenças, deficiência mental, restrições de idade. Este princípio se relaciona principalmente com a ideia de consentimento. Os indivíduos devem estar cientes dos riscos e benefícios potenciais de qualquer experimento do qual façam parte, e devem ter a liberdade de escolher participar ou se retirar a qualquer momento, antes e durante o experimento.

Beneficência: este princípio é inspirado na ética da saúde, onde os médicos fazem um juramento de "não causar dano". Essa ideia pode ser facilmente aplicada à inteligência artificial, onde algoritmos podem amplificar vieses relacionados a etnia, gênero, inclinações políticas etc., mesmo que a intenção seja melhorar um sistema específico.

Justiça: este princípio trata de questões como imparcialidade e igualdade. Quem deve colher os benefícios da experimentação e do aprendizado de máquina? O Relatório Belmont oferece cinco maneiras de distribuir ônus e benefícios, que são:

Participação igualitária

Necessidade individual

Esforço individual

Contribuição social

Mérito

Projeto 3D de bolas rolando em uma pista

As últimas notícias e insights sobre IA 


Descubra insights selecionados por especialistas e notícias sobre IA, nuvem e outros assuntos no boletim informativo semanal Think. 

Assine hoje

Principais preocupações da IA hoje

Há uma série de questões que estão na vanguarda das conversas sobre ética em torno das tecnologias de IA no mundo real. Alguns exemplos incluem:

Modelos de base e IA generativa

O lançamento do ChatGPT em 2022 marcou um verdadeiro ponto de inflexão para a inteligência artificial. As habilidades do chatbot da OpenAI, desde escrever pareceres jurídicos até depurar códigos, abriram uma nova constelação de possibilidades sobre o que a IA pode fazer e como pode ser aplicada em quase todos os setores.

O ChatGPT e ferramentas semelhantes são construídos com base em modelos de base, modelos de IA que podem ser adaptados para uma ampla gama de tarefas subsequentes. Modelos de base são geralmente modelos generativos de grande escala, compostos por bilhões de parâmetros, que são treinados com dados não rotulados usando autossupervisão. Isso permite que os modelos de base apliquem rapidamente o que aprenderam em um contexto para outro, tornando-os altamente adaptáveis e capazes de realizar uma grande variedade de tarefas diferentes. No entanto, há muitas questões potenciais e preocupações éticas em torno dos modelos de base, amplamente reconhecidas no setor de tecnologia, como vieses, geração de conteúdo falso, falta de explicabilidade, uso indevido e impacto social. Muitas dessas questões são relevantes para a IA em geral, mas ganham uma nova urgência à luz do poder e da disponibilidade dos modelos de base.

Singularidade tecnológica

A singularidade tecnológica é um cenário teórico em que o crescimento tecnológico se torna incontrolável e irreversível, culminando em mudanças profundas e imprevisíveis na civilização humana. Embora esse tópico atraia muita atenção pública, muitos pesquisadores não estão preocupados com a ideia de a IA superar a inteligência humana no futuro imediato ou próximo.  

IA forte (IA que possuiria inteligência e consciência iguais às dos humanos) e superinteligência ainda são hipotéticas. As ideias levantam algumas questões interessantes ao considerarmos o uso de sistemas autônomos, como carros autônomos. É irreal pensar que um carro sem motorista nunca se envolverá em um acidente. Quem seria responsável e culpado nessas circunstâncias? Devemos continuar desenvolvendo veículos autônomos ou devemos limitar a integração dessa tecnologia para criar apenas veículos semiautônomos que promovam a segurança entre os motoristas? Ainda não há consenso sobre isso, mas esses são os tipos de debates éticos que estão ocorrendo à medida que novas e inovadoras tecnologias de IA se desenvolvem.

Impacto da IA nos empregos

Embora grande parte da percepção pública sobre a inteligência artificial esteja centrada na perda de empregos, essa preocupação provavelmente deveria ser reformulada. Com toda nova tecnologia disruptiva, vemos que a demanda do mercado por funções específicas de trabalho muda.

Por exemplo, ao analisar o setor automotivo, muitos fabricantes, como a GM, estão se redirecionando para se concentrar na produção de veículos elétricos a fim de se adequarem às iniciativas ecológicas. O setor de energia não está desaparecendo, mas a fonte de energia está mudando de uma economia de combustível para uma elétrica.

A inteligência artificial deve ser vista de maneira semelhante, onde a IA mudará a demanda por empregos para outras áreas. Será necessário haver indivíduos para ajudar a gerenciar esses sistemas à medida que os dados crescem e mudam todos os dias. Ainda será necessário haver recursos para lidar com problemas mais complexos dentro dos setores que são mais propensos a serem afetados por mudanças na demanda de trabalho, como o atendimento ao cliente. O aspecto importante da inteligência artificial e seu efeito no mercado de trabalho será ajudar os indivíduos a fazer a transição para essas novas áreas de demanda de mercado.

Privacidade

A privacidade tende a ser discutida no contexto de privacidade de dados, proteção de dados e segurança de dados, e essas preocupações permitiram que os formuladores de políticas fizessem mais avanços nessa área nos últimos anos. Por exemplo, em 2016, a legislação GDPR foi criada para proteger os dados pessoais das pessoas na União Europeia e no Espaço Econômico Europeu, dando aos indivíduos mais controle sobre seus dados. Nos Estados Unidos, estados individuais estão desenvolvendo políticas, como a Lei de Privacidade do Consumidor da Califórnia (CCPA), que exige que as empresas informem os consumidores sobre a coleta de seus dados.

Essa e outras legislações recentes forçaram as empresas a repensar como armazenam e usam dados de identificação pessoal (PII). Como resultado, os investimentos em segurança se tornaram uma prioridade crescente para as empresas, pois elas buscam eliminar quaisquer vulnerabilidades e oportunidades de vigilância, hacking e ataques cibernéticos.

Preconceito e discriminação

Casos de vieses e discriminação em diversos sistemas inteligentes levantaram muitas questões éticas sobre o uso da inteligência artificial. Como podemos nos proteger contra vieses e discriminação quando os próprios conjuntos de dados de treinamento podem se inclinar para o viés? Embora as empresas geralmente tenham boas intenções em seus esforços de automação, podem surgir consequências imprevistas ao incorporar a IA nas práticas de contratação. Em seu esforço para automatizar e simplificar um processo, a Amazon involuntariamente escolheu possíveis candidatos a emprego com viés de gênero para cargos técnicos abertos, e eles acabaram tendo que descartar o projeto. À medida que eventos como esses surgem, a Harvard Business Review levantou outras questões pontuais sobre o uso de IA nas práticas de contratação, como quais dados você deve poder usar ao avaliar um candidato para uma função.

O viés e a discriminação também não se limitam à função de recursos humanos; eles podem ser encontrados em uma série de aplicações, desde software de reconhecimento facial até algoritmos de mídia social.

À medida que as empresas se tornam mais conscientes dos riscos da IA, também se tornam mais ativas na discussão sobre ética e valores em IA. Por exemplo, no ano passado, o CEO da IBM, Arvind Krishna, anunciou o encerramento dos produtos de reconhecimento facial e análise da IBM para uso geral, enfatizando que "a IBM se opõe firmemente e não tolerará o uso de qualquer tecnologia, incluindo a de reconhecimento facial oferecida por outros fornecedores, para vigilância em massa, perfis étnicos, violações de direitos humanos e liberdades básicas, ou qualquer propósito que não esteja em conformidade com nossos valores e princípios de confiança e transparência".

Prestação de contas

Não existe uma legislação universal que regule as práticas de IA, mas muitos países e estados estão trabalhando para desenvolvê-las e implementá-las localmente. Algumas regulamentações sobre IA já estão em vigor, com muitas mais por vir. Para preencher essa lacuna, surgiram frameworks éticos como parte de uma colaboração entre especialistas em ética e pesquisadores para regulamentar a construção e distribuição de modelos de IA na sociedade. No entanto, no momento, eles servem apenas para orientar, e pesquisas mostram que a combinação de responsabilidade distribuída e falta de previsão de possíveis consequências não é necessariamente propícia para prevenir danos à sociedade.

AI Academy

Confiança, transparência e governança em IA

A confiança na IA é, sem dúvida, o tema mais importante em IA. Também é um assunto compreensivelmente complexo. Vamos abordar questões como alucinação, viés e risco, e compartilhar etapas para adotar a IA de maneira ética, responsável e justa.

Ir para o episódio

Como estabelecer a ética em IA

A inteligência artificial funciona conforme sua concepção, desenvolvimento, treinamento, ajuste e uso, e a ética em IA consiste em estabelecer um ecossistema de padrões éticos e diretrizes ao longo de todas as fases do ciclo de vida de um sistema de IA.

Organizações, governos e pesquisadores começaram a montar frameworks para lidar com as preocupações éticas atuais na IA e moldar o futuro do trabalho no campo. Embora essas diretrizes estejam se tornando cada vez mais estruturadas, há um consenso em torno da incorporação dos seguintes pontos:

Controle

A governança é a ação de uma organização em supervisionar o ciclo de vida da IA por meio de políticas e processos, equipe e sistemas internos. A governança ajuda a garantir que os sistemas de IA operem de acordo com os princípios e valores da organização, conforme as expectativas dos stakeholders e as exigências da regulamentação aplicável. Um programa de governança bem-sucedido irá:

definir os papéis e responsabilidades das pessoas que trabalham com IA.

educar todas as pessoas envolvidas no ciclo de vida da IA sobre a construção de IA de maneira responsável.

estabelecer processos para construir, gerenciar, monitorar e se comunicar sobre a IA e seus riscos.

utilizar ferramentas para melhorar o desempenho e a confiabilidade da IA ao longo de seu ciclo de vida.

Um Conselho de Ética de IA é um mecanismo de governança particularmente eficaz. Na IBM, o Conselho de Ética de IA é composto por líderes de diversas áreas da empresa. Ele fornece um processo centralizado de governança, revisão e tomada de decisões para as políticas e práticas de ética da IBM. Saiba mais sobre o Conselho de Ética em IA da IBM.

Princípios e áreas de foco

A abordagem de uma organização à ética em IA pode ser guiada por princípios que podem ser aplicados a produtos, políticas, processos e práticas em toda a organização, ajudando a garantir uma IA confiável. Esses princípios devem ser estruturados em torno de áreas de foco, como explicabilidade ou imparcialidade, em torno das quais podem ser desenvolvidas normas e práticas podem ser alinhadas.

Quando a IA é construída com a ética no centro, ela tem um tremendo potencial para impactar a sociedade de forma positiva. Já começamos a ver isso em sua integração em áreas da saúde, como a radiologia. A conversa sobre ética em IA também é importante para avaliar e mitigar adequadamente possíveis riscos relacionados ao uso da IA, começando já na fase de design.

Organizações que promovem a ética em IA

Como os padrões éticos não são a principal preocupação dos engenheiros e cientistas de dados no setor privado, várias organizações surgiram para promover condutas éticas no campo da inteligência artificial. Para aqueles que buscam mais informações, as seguintes organizações e projetos fornecem recursos para implementar a ética em IA:

Ponto de vista da IBM sobre a ética na IA

A IBM também estabeleceu seu próprio ponto de vista sobre ética de IA, criando Princípios de confiança e transparência para ajudar os clientes a entender onde seus valores estão dentro da conversa sobre IA. A IBM tem três princípios fundamentais que ditam sua abordagem aos dados e ao desenvolvimento de IA, que são:

O objetivo da IA é ampliar a inteligência humana. Isso significa que não buscamos substituir a inteligência humana pela IA, mas sim apoiá-la. Como toda nova inovação tecnológica envolve mudanças na oferta e demanda de determinadas funções de trabalho, a IBM está comprometida em apoiar os trabalhadores nessa transição, investindo em iniciativas globais para promover o treinamento de habilidades relacionadas a essa tecnologia.

Os dados e insights pertencem a seus criadores. Os clientes da IBM podem ter a certeza de que eles, e apenas eles, são proprietários de seus dados. A IBM não forneceu, nem fornecerá, acesso governamental aos dados dos clientes para qualquer programa de vigilância, e continua comprometida em proteger a privacidade de seus clientes.

Sistemas de IA devem ser transparentes e explicáveis. A IBM acredita que as empresas de tecnologia precisam ser claras sobre quem treina seus sistemas de IA, quais dados foram usados nesse treinamento e, o mais importante, o que foi incluído nas recomendações dos seus algoritmos.

A IBM também desenvolveu cinco pilares para guiar a adoção responsável de tecnologias de IA. Isso inclui:

Explicabilidade: um sistema de IA deve ser transparente, especialmente sobre o que foi incluído nas recomendações de seu algoritmo, sendo relevante para uma variedade de stakeholders com diferentes objetivos.

Imparcialidade: refere-se ao tratamento equitativo de indivíduos, ou grupos de indivíduos, por um sistema de IA. Quando calibrada corretamente, a IA pode ajudar os humanos a fazer escolhas mais imparciais, contrariando vieses humanos e promovendo a inclusão.

Robustez: sistemas impulsionados por IA devem ser defendidos ativamente contra ataques adversários, minimizando os riscos à segurança e permitindo confiança nos resultados do sistema.

Transparência: para reforçar a confiança, os usuários devem ser capazes de ver como o serviço funciona, avaliar sua funcionalidade e compreender seus pontos fortes e limitações.

Privacidade: os sistemas de IA devem priorizar e proteger a privacidade e os direitos dos consumidores em relação aos dados, além de fornecer garantias explícitas aos usuários sobre como seus dados pessoais serão utilizados e protegidos.

Esses princípios e áreas de foco formam a base da nossa abordagem à ética em IA. Para saber mais sobre a visão da IBM em relação à ética e inteligência artificial, leia mais aqui.

(责任编辑:)
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:
发布者资料
查看详细资料 发送留言 加为好友 用户等级: 注册时间:2025-10-17 04:10 最后登录:2025-10-17 04:10
栏目列表
推荐内容