Inteligência artificial e ética: precisamos adequar às normas de privacidade com urgência
Desde o tempo de Aristóteles, os avanços tecnológicos geraram debates sobre a ética - despertaram discussões acaloradas - e fizeram novos progressos.
Quando o Facebook forneceu dados de usuários para empresas de marketing e o algoritmo do Google Fotos identificou os negros como gorilas, as regras morais - por assim dizer - precisava desesperadamente de outro contorno. Então, um debate global sobre os riscos apresentados pela inteligência artificial começou.
Como a influência da tecnologia está se desenvolvendo rapidamente - não há parâmetros claros e propostas de desenvolvimento humano com várias características e preconceitos - as instituições de ensino e pesquisa já estão fornecendo orientação moral para o desenvolvimento tecnológico.
A Stanford University é uma delas, referência mundial em inovação e desenvolvimento. A universidade californiana lançou um centro de pesquisa interdisciplinar cujo objetivo é reunir tomadores de decisão públicos, pesquisadores e estudantes responsáveis pelo desenvolvimento de tecnologias futuras.
As instituições públicas e privadas canadenses já estão cooperando com a Declaração de Montreal, que é uma proposta de estrutura ética que propõe dez princípios básicos de soluções de IA: bem-estar, respeito à autonomia, proteção da privacidade, unidade, participação democrática e igualdade, tolerância e inclusão, diversidade, responsabilidade, prudência e desenvolvimento sustentável.
Agora é a hora de empresas e desenvolvedores (que estavam alheios às questões de privacidade e ética) se ajustarem.
A atual lei de proteção de dados na Europa já estipula a privacidade das informações pessoais.
[Fonte: Mundo Marketing]