Numa altura em que a inteligência artificial (IA) assume um papel cada vez mais central nos serviços financeiros, o NatWest Group afirma-se como pioneiro na incorporação de princípios éticos no desenvolvimento e aplicação desta tecnologia. “Temos a responsabilidade de garantir que as decisões da IA são corretas e justas”, afirma Paul Dongha, diretor de IA Responsável do banco, sublinhando os riscos de enviesamento algorítmico.

Numa publicação do banco, Paul Dongha explica que o código de conduta está alinhado com os valores estratégicos do grupo e fornece diretrizes concretas aos engenheiros de IA, promovendo supervisão humana, robustez técnica, respeito pela privacidade e explicabilidade das decisões. Dongha afirma que “o código não é uma ideia abstrata; está incorporado na forma como desenhamos os sistemas e treinamos os modelos de IA”.

Desta feita, todas as aplicações significativas de IA passam por uma avaliação ética, com os casos de maior risco a serem analisados por um painel multidisciplinar interno. Este processo visa assegurar que as soluções tecnológicas não causam danos não intencionais e respeitam os direitos dos clientes.

Dongha acredita que a IA, quando utilizada de forma ética, pode recriar o vínculo de confiança tradicional entre cliente e banco. “Se for usada com responsabilidade, pode até reforçar as relações com os clientes, oferecendo interações mais personalizadas e relevantes”.

Paul Dongha sublinha os riscos associados aos modelos algorítmicos e a importância de um quadro regulador interno para mitigar possíveis impactos negativos.

Nomeadamente, a natureza probabilística da inteligência artificial levanta desafios particulares à banca, onde a robustez, a precisão e a imparcialidade dos sistemas de decisão são fundamentais. “Os modelos de IA operam com base em padrões nos dados de treino, o que pode levar a resultados imprevistos, incluindo enviesamentos não intencionais”, explica. Estes enviesamentos podem surgir, por exemplo, em decisões de concessão de crédito, influenciando injustamente os resultados.

Para responder a este risco, o banco criou um Código de Conduta Ético para IA e Dados, com princípios que regem tanto a forma como os dados dos clientes são tratados como o modo de desenvolvimento e aplicação dos sistemas algorítmicos.

Este código orienta os engenheiros da instituição através de princípios como supervisão humana obrigatória, explicabilidade dos resultados, cumprimento da legislação de privacidade e segurança técnica dos sistemas.

Cada nova aplicação de IA relevante passa por uma avaliação de impacto ético, conduzida por uma equipa dedicada. Em casos de risco elevado, o processo é analisado por um painel interno constituído por colaboradores de diferentes áreas do banco. Este painel avalia os chamados “casos-limite”, e sugere medidas de mitigação para reduzir o risco ético.