A pesquisa do BCG (Boston Consulting Group) com mais de 1.400 executivos de alto escalão revela que a Inteligência Artificial está mudando rapidamente a forma como as empresas fazem negócios e que 2024 será o ano dela: 71% dos líderes entrevistados afirmam que planejam aumentar os investimentos tecnológicos e 89% classificam a IA (e a GenAI) entre as três principais prioridades tecnológicas para este ano.
Entretanto, 66% deles estão insatisfeitos com o que fizeram neste campo até então, em função de três fatores: escassez de talentos e competências (62%), prioridades de investimento pouco claras (47%) e ausência de uma estratégia para IA responsável (42%).
E é sobre este terceiro ponto que quero conversar com vocês.
Ninguém discorda dos avanços que esta tecnologia já trouxe para todos os campos e setores da economia e da sociedade e, mais ainda, dos benefícios que ela ainda pode agregar. Especialistas afirmam que estamos surfando a primeira onda do uso da IA dentro das organizações, que mira o ganho de eficiência ou a economia nos custos, mas já preveem um tsunami chegando que revolucionará os negócios com o uso da IA na geração de proposta de valor e de mudança de comportamento.
Revolução tecnológica comparável ao que foi o advento da internet décadas atrás tem uma velocidade de adoção impressionante. Mais do que nunca, precisamos acelerar a discussão de segurança, transparência, ética e responsabilidade no emprego da tecnologia, de forma que sejam estes os princípios que nortearão seu desenvolvimento.
A criação de inteligência artificial responsável ou “RAI” como é chamada em inglês (Responsible Artificial Intelligence) precisa liderar as prioridades organizacionais, assim como o investimento no desenvolvimento em si.
Mas o que é inteligência artificial responsável?
RAI é o processo de desenvolvimento e operação de sistemas de inteligência artificial que se alinham, desde o nascedouro, ao propósito organizacional e aos valores éticos, gerando um impacto empresarial transformador e responsável. Uma estratégia que acelera a inovação, mas que está sempre pautada pela resolução de questões éticas complexas em torno de implantações e investimentos em IA.
Vários são os princípios que norteiam um plano estratégico de RAI, mas destaco aqui quatro que, na minha opinião, devem constituir a base desse planejamento.
- – Transparência
Os sistemas de IA devem ser transparentes em seu funcionamento, permitindo que os usuários entendam como as decisões são tomadas e como os dados são usados. Um Sistema de Concessão de Empréstimos, por exemplo, deveria dar acesso aos seus usuários às informações usadas para avaliar seu pedido de empréstimo, destacando áreas como pontuação de crédito, renda e dívidas e mostrando como cada fator contribuiu para a aprovação ou rejeição do pedido.
- – Ética
Ética em IA é o conjunto de regras e valores que garantem que a ferramenta, na concepção, estruturação e execução, será utilizada conforme seu propósito. A falta de ética acontece exatamente quando esse valor é quebrado pelo mau uso da inteligência.
As fake news, por exemplo. O propósito da notícia de apresentar fatos e prover informações apuradas e verídicas, de forma a contribuir para o conhecimento e conscientização dos cidadãos é violado com a distribuição de notícias falsas, levando as pessoas a tomarem decisões equivocadas, ou colocando-as em risco.
- – Justiça e Equidade
As IAs devem ser projetadas para evitar preconceitos e discriminação, garantindo que suas decisões não sejam tendenciosas em relação a características como raça, gênero, idade, etnia etc. Os algoritmos precisam ser alimentados com dados diversos e representativos, a fim de se evitar vieses discriminatórios que reforcem desigualdades.
Um exemplo muito discutido nesse campo são os sistemas de recrutamento baseados em algoritmos. Profissionais excelentes não passam pelos filtros das vagas, por questões pré-determinadas que enviesam o processo. É preciso uma auditoria permanente dos modelos e uma revisão humana criteriosa para identificá-los e eliminá-los.
- – Privacidade e Segurança
Algoritmos de IA dependem de grandes conjuntos de dados para aprender e melhorar suas capacidades. É preciso garantir a segurança desses dados, protegendo-os através de sistemas robustos, de forma a assegurar a privacidade dos usuários. As IAs devem ser projetadas para minimizar o risco de violações de dados e abusos, ataques maliciosos e possíveis manipulações.
E de quem é a responsabilidade, caso estes princípios éticos e práticos sejam corrompidos? Da empresa e dos profissionais que a projetaram e a gerenciam. Os criadores de IA devem ser responsáveis pelo uso e pelo impacto de seus sistemas, assumindo a responsabilidade por quaisquer consequências negativas que possam surgir.
A inteligência artificial foi desenvolvida para colaborar com a inteligência humana, complementá-la, ser ferramenta de suporte, e não como algo totalmente autônomo. São os humanos que têm a consciência e a capacidade para analisar se a tecnologia está a serviço de beneficiar ou manipular consumidores e sociedade.
Precisamos ser capazes de garantir que os benefícios da IA sejam maximizados, enquanto os riscos e impactos negativos são mitigados. Que isso seja prioridade em 2024!
A opinião e as informações contidas neste artigo são responsabilidade do autor, não refletindo, necessariamente, a visão da SpaceMoney.