Menu fechado

Inteligência Artificial na indústria financeira precisa ser explicável e ética

Embora muitos ainda resistam a usar o termo Inteligência Artificial para definir o que está sendo feito atualmente, preferindo ao invés disso classificar as aplicações como aprendizado de máquina (ML) ou automatização robótica de processos (RPA), o fato é que as soluções se multiplicam a cada dia.
Alguns dos usos mais frequentes estão sendo feitos em situações como previsão de rotatividade, otimização do atendimento ao cliente, principalmente em torno de plataformas de voz, otimização de processos, triagens e controles além de personalização de marketing, entre outros.
No que se refere ao uso emergentes de AI em serviços financeiros, estão começando a surgir grandes considerações, principalmente relacionadas à necessidade de explicações a respeito do funcionamento dos modelos e à criação de filtros éticos para as soluções.
Em um artigo escrito para o portal Finextra.com, a gerente de marketing da Intel, Elizabeth Winders chamou a atenção para esses dois pontos com a seguinte argumentação.
À medida que os modelos e a automação baseada em inteligência artificial começam a tomar decisões, por exemplo, em torno das aprovações de crédito, haverá necessidade de explicação.
De acordo com ela, assas explicações terão audiências diferentes em momentos diferentes, desde funções internas de risco e conformidade, até reguladores e até mesmo para o cliente. Portanto, o nível de detalhamento da explicação também variará.
Winders comenta que no momento, existe a sensação de que alguns reguladores não são tão avançados em sua compreensão da Inteligência Artificial ​​quanto empresas de tecnologia e instituições financeiras. Eles tendem apenas a analisar os volumes globais de negócios e o número de relatórios de atividades suspeitas (SAR) arquivados. Qualquer relação entre estes que esteja fora da norma da indústria atrairá investigação regulatória.
Sobre o ponto de vista ético, a autora do artigo afirma que à medida que os fatores de comportamento e tomada de decisão envolvidos nos modelos de ML tornam-se mais transparentes, um filtro ético sobre as decisões torna-se crucial.
A ressalva é feita especialmente no que tange à proteção do consumidor. Ela se refere a situações nas quais as decisões sugeridas por um modelo ML com base unicamente em dados econômicos podem não se alinhar com as estratégias de um banco.
Além disso, é importante entender quais dados não estão incluídos em um modelo de inteligência artificial, pois isso poderia fornecer uma imagem mais completa do cliente.
A evolução nestes critérios de ética e transparência da Inteligência Artificial exige que cada vez mais o desenvolvimento das soluções precise ser acompanhado por um processo de revisão humana feita por equipes que estejam familiarizadas com o funcionamento da IA.
A 7COMm possui técnicos altamente capacitados para desenvolver projetos com os mais modernos conceitos de inteligência artificial dotados de toda a ética e transparência necessários para garantir a sustentabilidade do negócio. Entre em contato.

Post relacionado