Este foi um dos últimos livros lidos por Danilo Doneda. Publicamos um trecho traduzido em sua homenagem.

Floridi, Luciano. Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide. Milano: Raffaello Cortina Editore, 2022.

Ética da inteligência artificial. Desenvolvimento, oportunidades, desafios

pp. 287-295

Recomendações para a sociedade ter uma boa IA

Consideradas individualmente, as quatro oportunidades descritas anteriormente e os desafios correspondentes mostram um panorama misto sobre o impacto da IA para a sociedade, para as pessoas e para os ambientes compartilhados. Aceitar a presença do trade-off, aproveitar as oportunidades ao mesmo tempo em que se trabalha para antecipar, evitar ou reduzir realmente ao mínimo os riscos melhorará a perspectiva de que as tecnologias podem promover dignidade e progresso humanos. Garantir resultados socialmente preferíveis (igualitários) da IA se fundamenta na capacidade de resolver a tensão entre a atuação dos benefícios e a mitigação dos potenciais danos da IA: resumindo, se trata de evitar contemporaneamente o uso impróprio e a subutilização dessas tecnologias. Neste contexto, o valor de uma aproximação ética às tecnologias de IA se torna mais evidente. No sexto capítulo defendi que o respeito à lei é simplesmente necessário (o mínimo solicitado), mas significativamente insuficiente (não é o máximo do que pode ser feito). Fazendo uma analogia, é como a diferença entre jogar segundo as regras e jogar bem, de forma que se possa vencer a partida. Precisamos de uma estratégia ética, de uma ética soft para a sociedade digital que queremos construir. Seguindo a linha desta distinção, seguem vinte recomendações para uma sociedade com uma boa IA. Existem quatro pontos de intervenção: avaliar, desenvolver, incentivar e apoiar. Algumas recomendações podem ser realizadas diretamente, por exemplo, pelos políticos responsáveis nacionais ou europeus, em colaboração com as partes interessadas, quando necessário. No caso de outras recomendações, os responsáveis políticos podem desenvolver um papel de facilitadores para os esforços propostos ou conduzidos por terceiros. O pressuposto é que, com a finalidade de criar uma sociedade com uma boa IA, os princípios éticos identificados no quarto capítulo deveriam ser incorporados de forma pré-definida nas práticas de IA. Em especial, vimos no capítulo nove que a IA pode e deve ser desenhada e desenvolvida de forma a reduzir as desigualdades, incrementar a potência social, respeitando a dignidade e a autonomia humanas, e somar os benefícios compartilhados por todos, de forma igualitária. É especialmente importante que a IA seja explicável, visto que a explicabilidade é um instrumento fundamental para construir a confiança do público na tecnologia e para a sua compreensão. A criação de uma sociedade com uma boa IA requer um comportamento que leve em consideração todas as partes interessadas (multistakeholder), que é a forma mais eficaz para assegurar que a IA satisfaça às exigências da sociedade, permitindo aos desenvolvedores, usuários e legisladores  estarem envolvidos e colaborando desde o princípio. Inevitavelmente diversas molduras culturais dão informações sobre o comportamento em relação às novas tecnologias.

Um último comentário é útil antes de apresentar as recomendações. A seguinte proposta europeia deseja ser complementar a outras propostas e não deveria ser erroneamente considerada uma espécie de adesão a uma perspectiva eurocêntrica. Da mesma forma em que tive a necessidade de fundamentar as considerações éticas no oitavo capítulo em um quadro jurídico específico, naquele caso o direito penal, sem perder a generalidade, assim a escolha de contextualizar as recomendações que apresentaremos no panorama do contexto europeu tem apenas o objetivo de fornecer a eles um valor concreto e viável. Não tem nada nas recomendações que as torne relacionadas em relação ao contexto europeu de forma exclusiva; portanto, permanecem universais. Porque não importa onde vivemos no mundo, devemos todos nos dedicar ao desenvolvimento das tecnologias de IA de forma a garantir a confiança das pessoas, servir ao interesse público, reforçar a responsabilidade social compartilhada e proteger o meio ambiente.

  1. Avaliar a capacidade das instituições existentes, como os tribunais civis nacionais, de corrigir os erros cometidos ou os danos provocados pelos sistemas de IA. Tal avaliação deveria considerar a presença de bases sustentáveis e pactuadas com a maioria na responsabilidade pela subsequente fase de design, visando reduzir as negligências e conflitos (veja também a recomendação 5).
  2. Avaliar quais tarefas e funções de tomada de decisão não deveriam ser delegadas aos sistemas de IA, através da utilização de mecanismos participativos para garantir que estejamos alinhados com os valores da sociedade e com a compreensão da opinião pública. Tal avaliação deveria considerar a normativa vigente e ser sustentada por um diálogo contínuo entre todas as partes interessadas (incluindo governo, indústria e sociedade civil) para examinar de que forma a IA tem um impacto sobre as opiniões da sociedade (de acordo com a recomendação 17).
  3. Avaliar se as normativas vigentes são suficientemente fundamentadas na ética oferecendo um panorama normativo em condições de se manter no ritmo do desenvolvimento tecnológico. Isto pode incluir um quadro de princípios-chave aplicáveis a problemas urgentes e/ou imprevistos.
  4. Desenvolver um panorama para melhorar a explicabilidade dos sistemas de IA que assumem decisões socialmente relevantes. Neste panorama é essencial a capacidade dos indivíduos em obter uma explicação factual, direta e clara do processo de decisão, sobretudo no caso de consequências indesejadas. Isso provavelmente requer o desenvolvimento de estruturas específicas para diversos setores, com o envolvimento das associações profissionais neste processo, conjuntamente com os especialistas no campo da ciência, do comércio, do direito e da ética.
  5. Desenvolver procedimentos jurídicos adequados e melhorar a infraestrutura digital do sistema judiciário para consentir a verificação das decisões algorítmicas nos tribunais. Isto inclui presumivelmente a criação de um panorama para a explicabilidade da  IA especificamente para o sistema jurídico, como indicado na recomendação 4. Exemplos de procedimentos adequados podem incluir a divulgação admissível de informações comerciais sensíveis nas controvérsias em matéria de propriedade intelectual e – onde a divulgação inclua riscos inaceitáveis como, por exemplo, a segurança nacional – a configuração dos sistemas de IA para adotar soluções técnicas de configuração padrão, como evidências de conhecimento nulo, com a finalidade de avaliar a confiabilidade deles.
  6. Desenvolver mecanismos de auditoria para os sistema de IA com a finalidade de identificar as consequências indesejadas, como preconceitos injustos, e (por exemplo, em colaboração com o setor de seguros) um mecanismo de solidariedade para enfrentar os riscos graves nos setores de alta intensidade de IA. Tais riscos poderiam ser mitigados pela adoção, desde o princípio, de mecanismos para envolver todas as partes interessadas. A experiência pré-digital indica que, em alguns casos, poderiam ser necessários alguns decênios antes que a sociedade se coloque em pé de igualdade com a tecnologia, contrabalançando de forma idônea direitos e proteção para restaurar a confiança. Quanto antes estiverem envolvidos usuários e governos – como já se tornou possível com as tecnologias digitais – mais breve será este atraso.
  7. Desenvolver um sistema de reparação ou um mecanismo para remediar ou compensar um erro ou um dano causado pela IA. Para promover a confiança do público na IA, a sociedade necessita de um mecanismo de reparação amplamente acessível e confiável para os danos infligidos, os custos incorridos ou outros danos causados pela tecnologia. Tal mecanismo terá necessariamente que adotar um critério claro e exaustivo de atribuição da responsabilidade a seres humanos e/ou organizações. Pode-se obter dicas da indústria aeroespacial, por exemplo, que dispõe de um sistema testado para gerir as consequências não desejadas de forma completa e séria. O desenvolvimento deste processo deve derivar da avaliação da capacidade existente delineada na recomendação 1. Se fosse identificada uma falta de capacidade, deveriam ser desenvolvidas soluções institucionais posteriores a nível nacional e/ou da UE, para permitir que as pessoas peçam ressarcimento. Tais soluções podem incluir:
  • um “defensor cívico da IA” para garantir o controle sobre usos presumivelmente desleais ou iníquos da IA.
  • um processo guiado pela proposição de uma reclamação semelhante a um pedido de liberdade de informação.
  • o desenvolvimento de mecanismos de garantia da responsabilidade civil, que seria solicitada como complemento obrigatório de classes específicas de ofertas de IA na UE e em outro mercados. Isso garantiria que a confiança relativa dos mecanismos baseados na IA, especialmente a robótica, se reflita nos preços de  seguros e, portanto, nos preços de mercado dos produtos concorrentes.

Quaisquer sejam as soluções desenvolvidas, é provável que elas encontrem fundamentação no panorama de referência sobre a inteligibilidade proposto na recomendação 4.

8. Desenvolver métricas compartilhadas para medir a confiança nos produtos e serviços de IA, que podem ser implementadas por uma nova organização ou por uma organização já existente adequada. Tais métricas serviriam como base para um sistema que permite uma avaliação comparativa guiada pelas indicações dos usuários de todas as ofertas de IA comercializadas. De tal forma, além do preço de um produto, é possível desenvolver e fazer referência a um índice de confiabilidade da IA. Este “índice de comparação da confiança” para IA melhoraria a compreensão do público e criaria competitividade no desenvolvimento de uma IA mais segura e mais socialmente vantajosa (por exemplo, “IwantgreatAI.org”). A longo prazo tal sistema poderia constituir a base para um sistema mais amplo de certificação dos produtos e serviços merecedores, administrado pela organização indicada neste contexto e/ou pela agência de supervisão proposta na recomendação 9. A organização poderia também promover o desenvolvimento de códigos de conduta (veja a recomendação 18). Além disso, aqueles que possuem ou fornecem input aos sistemas de IA, e se aproveitam disso, poderiam ser encarregados de financiar e/ou contribuir para o desenvolvimento de programas de alfabetização dos consumidores em relação à IA, no próprio interesse.

9. Desenvolver uma nova agência de supervisão da UE responsável pela proteção do bem estar público através da avaliação científica e da supervisão de produtos, software, sistemas ou serviços de IA. Tal agência poderia ser análoga, por exemplo, à agência europeia para medicamentos. Da mesma forma, deveria ser desenvolvido um sistema de monitoramento “sucessivo à entrada” no mercado da IA, semelhante, por exemplo, àquela disponível para os remédios, com obrigações de relatórios para algumas partes interessadas e mecanismos facilitados de relatórios para outros usuários.

10. Desenvolver um observatório europeu para a IA. A missão do observatório seria a de monitorar o desenvolvimento, fornecer um fórum para alimentar o debate e o consenso, fornecer um arquivo para a literatura e o software sobre a IA (compreendidos os conceitos e referências à literatura disponível) e formular progressivas recomendações e linhas guiadas para a ação.

11.Desenvolver instrumentos legais e modelos contratuais para criar as bases de uma colaboração ágil e gratificante humano-máquina no ambiente de trabalho. Plasmar a narrativa sobre o “futuro do trabalho” é instrumental para conquistar “corações e mentes”. Seguindo a linha de uma “Europa que protege”, a ideia de “inovação inclusiva” e a tentativa de facilitar a transição em direção a novos tipos de trabalho, poderia ser instituído um Fundo europeu de adequação sobre a IA como o Fundo europeu de adequação à globalização.

12. Incentivar financeiramente, a nível europeu, o desenvolvimento e o uso de tecnologias de IA na UE que sejam socialmente preferenciais (não simplesmente aceitáveis) e respeitosas com o meio ambiente (não apenas sustentáveis, mas também favoráveis ao meio ambiente). Isso compreende a elaboração de metodologias que podem contribuir para avaliar se os projetos de IA são socialmente preferenciais e respeitosos com o meio ambiente. Neste sentido, a adoção de uma “abordagem baseada em desafios” (veja os desafios do DARPA) pode encorajar a criatividade e promover a concorrência no desenvolvimento de soluções específicas de IA que sejam eticamente corretas e no interesse do bem comum.

13. Incentivar financeiramente um esforço de pesquisa europeia com suporte, extenso e coerente, dividido em características específicas da IA como setor científico de investigação. Isto deveria se traduzir na missão claramente orientada para o progresso da IA para o bem social, para atuar como contrapeso unitário às tendências da IA menos atentas às oportunidades sociais.

14. Incentivar financeiramente a cooperação e o debate interdisciplinares e intersetoriais relacionados com os pontos de intersecção entre tecnologia, questões sociais, estudos jurídicos e ética. Os debates sobre os desafios tecnológicos podem estar atrasados em relação ao efetivo progresso técnico, mas se, estrategicamente, recebem informações de um grupo diversificado e representativo sobre diversos interesses, podem guiar e promover a inovação tecnológica na direção correta. A ética deveria ajudar a aproveitar as oportunidades e enfrentar os desafios, e não somente descrevê-los. É crucial para tal propósito que a diversidade permeie o design e o desenvolvimento da IA, nos termos de gênero, classe, etnia, disciplina e outras dimensões relevantes, com a finalidade de incrementar a inclusão, a tolerância e a riqueza de ideias e perspectivas.

15. Incentivar financeiramente a inclusão de considerações éticas, jurídicas e sociais nos projetos de pesquisa sobre a IA. Paralelamente, incentivar revisões periódicas da normativa vigente para verificar em que medida ela promove a inovação socialmente positiva. Consideradas individualmente, estas duas medidas contribuirão para garantir que a tecnologia da IA tenha no seu centro a ética e que as escolhas políticas sejam orientadas para a inovação.

16. Incentivar financeiramente o desenvolvimento e o uso de zonas especiais legalmente desregulamentadas dentro da UE para a verificação empírica e o desenvolvimento de sistemas de IA. Estas zonas podem assumir a forma de um “laboratório vivente” (ou Tokku), baseando-se na experiência da já existente “estrada de teste” (ou Teststrecken). Além de alinhar mais de perto a inovação com o nível de risco escolhido pela sociedade, experiências realizadas através do sandbox, como aqueles apenas vistos, contribuem para dar uma formação prática e para promover a responsabilidade e a aceitabilidade desde a fase inicial. A “proteção by design” é típica deste quadro de referência.

17. Incentivar financeiramente a pesquisa sobre a percepção e a compreensão do público da IA e das suas aplicações e a atuação de mecanismos estruturados de consulta pública para projetar políticas e regras relativas à IA. Isso pode incluir a solicitação direta da opinião pública através de métodos de pesquisa tradicionais, como sondagens de opinião e focus group, além de abordagens mais experimentais, como exemplos simulados das questões éticas introduzidas pelos sistemas de IA ou experiências nos laboratórios de ciências sociais. Esta agenda de pesquisa não deveria servir apenas para medir a opinião pública, mas deveria levar também, como consequência, à cocriação de políticas, standards, melhores práticas e regras.

18. Apoiar o desenvolvimento de códigos de conduta de autorregulamentação para as profissões ligadas a dados e IA, com a previsão de deveres éticos específicos. Seguindo a linha de outras profissões socialmente sensíveis, como médicos ou advogados, a adoção de uma relativa certificação de “IA ética” através de atestados de confiabilidade pode induzir as pessoas a compreender os méritos da IA ética e, portanto, solicitá-los aos fornecedores. As técnicas atuais de manipulação da atenção podem ser limitadas através destes instrumentos de autorregulação.

19. Apoiar a capacidade dos conselhos de administração das sociedades em assumir a responsabilidade das implicações éticas das sociedades tecnológicas de IA. Por exemplo, isto pode incluir uma melhor formação para os conselhos existentes e o potencial desenvolvimento de um comitê ético com poderes de controle interno. Isso poderia ser desenvolvido dentro da estrutura existente dos sistemas de conselho seja em um nível seja em dois níveis e/ou conjuntamente com o desenvolvimento de uma forma obrigatória de “comitê de revisão ética empresarial” que deve ser adotada pelas organizações que desenvolvem ou se valem de sistemas de IA, para avaliar os projetos iniciais e a atuação deles em relação aos princípios fundamentais.

20. Apoiar a criação de planos de estudo e atividades de sensibilização pública sobre o impacto social, jurídico e ético da IA. Isso pode incluir:

– currículo para as escolas, favorecendo a inclusão da informática entre as disciplinas básicas a serem ensinadas;

  • iniciativas e programas de qualificação nas empresas que se ocupam de tecnologias de IA, para treinar os funcionários sobre o impacto social, jurídico e ético do trabalho ligado à IA;
  • uma recomendação a nível europeu para incluir a ética e os direitos humanos na formação dos cientistas de dados e da IA em outros currículos científicos e de engenharia que se ocupam de sistemas computacionais e de IA;
  • o desenvolvimento de programas semelhantes para o público em geral, dando uma atenção especial para aqueles que estão envolvidos em cada fase de gestão da tecnologia, incluindo funcionários públicos, políticos e jornalistas;
  • compromisso em promover iniciativas mais amplas como os eventos AI for Good do ITU e as ONGs que trabalham com os objetivos de desenvolvimento sustentável das Nações Unidas.

Tradução: Luciana Cabral Teixeira Doneda