Trabalho ética sobre racismo

 Essa foi uma atividade que tinha como base responder perguntas sobre dois textos que ela colocou no disco virtual, um artigo e um outro texto


Aluno: Rafael Gustavo Reinert 


Transparência Algorítmica e Responsabilização ACM

Instruções:

Leia o texto Statement on Algorithmic Transparency and Accountability da ACM, disponível no disco virtual da disciplina.


 


1.Cite algumas áreas de aplicação da IA.


1- corte de imagens para captar os pontos mais importantes

2- carros autônomos

3- reconhecimento facial 

4- medicina: reconhecimento de doenças 

5- chatbots


2.Segundo o texto, quais são os aspectos do software que tornam complexa a determinação exata dos resultados/saídas de um software


1- o testes por pessoas comuns usando o twitter, por usarem um exemplo específico não é o suficiente para determinar o enviesamento racista


2- falta de agência do usuário: o usuário não define como a imagem deve ser cortada, podendo gerar danos morais que alteram a interpretação da saída


3- as máquinas podem cometer erros que para humanos não tem sentido pois máquinas “não pensam como humanos”, o senso comum pode não captar a correlação que gerou o erro, sendo difícil entender porque a saída foi tal


4- existe uma falta de dados suficiente para uma análise de imparcialidade para ser comparado com a máquina, é necessário grandes volumes de dados com uma variação bem equilibrada


5- há dificuldade em aplicar valores éticos em maquinas, e quando alguém vai julgar a saída ela julga com base em seus próprios valores, dando o problema de algo ser ofensivo para alguém e para outro não


6- existe dificuldade em definir o'que é um estado "ótimo" para a maquina de maneira universal, pois é necessário definir um estado de excelência para ser alcançado, algo que gera problema em um exemplo de se definir a cor ideal para uma pintura


3.Quais são os Princípios para transparência e responsabilização algorítmica?


  1. Conscientização: os autores dos algoritmos devem estar cientes de que o algoritmo pode conter vieses

  2. Reparo: deve haver mecanismos que compensem os problemas gerados pelos algoritmos

  3. Responsabilidade inatituicional: as instituições devem se responsabilizar por seus algoritmos mesmo que não seja possível explicar a sua saída

  4. Explicação: as instituições devem produzir documentação que explique como seus algoritmos funcionam

  5. Dados: os dados pelos quais os algoritmos foram treinados deve ser mantido

  6. Auditoria: informações sobre o algoritmo devem ser mantidas para caso de suspeita de dano

  7. Testes: as instituições devem realizar testes rigorosos em seus algoritmos para evitar danos em situações reais


4.Como estes princípios podem impactar os desenvolvedores de software?


Estes princípios sendo aplicados irão requerer mais engajamento e mais carga de trabalho, porém os levará a ter uma consciência mais limpa por ter validado com mais rigor o software que desenvolveram, evitando maiores danos


5.Quais os potenciais/possíveis vieses que software de IA podem apresentar?


Visão masculina: a maioria dos desenvolvedores é homem, oque por influência faz os algoritmos tendenciarem as mulheres, seja na Twitch tv, seja no recorte de imagens


Racismo: como dito no artigo, há uma tendência a encontrar mais facilmente rostos brancos doque negros e há preferência pelos brancos 


Em geral, os algoritmos podem possuir os vieses segundo sua programação ou banco de dados



Comentários

Postagens mais visitadas deste blog

Deus não faz aceptação de pessoas

Oque garante interpretação correta

sobre o nivel de leitura no Brasil