Trabalho ética sobre racismo
Essa foi uma atividade que tinha como base responder perguntas sobre dois textos que ela colocou no disco virtual, um artigo e um outro texto
Aluno: Rafael Gustavo Reinert
Transparência Algorítmica e Responsabilização ACM
Instruções:
Leia o texto Statement on Algorithmic Transparency and Accountability da ACM, disponível no disco virtual da disciplina.
1.Cite algumas áreas de aplicação da IA.
1- corte de imagens para captar os pontos mais importantes
2- carros autônomos
3- reconhecimento facial
4- medicina: reconhecimento de doenças
5- chatbots
2.Segundo o texto, quais são os aspectos do software que tornam complexa a determinação exata dos resultados/saídas de um software
1- o testes por pessoas comuns usando o twitter, por usarem um exemplo específico não é o suficiente para determinar o enviesamento racista
2- falta de agência do usuário: o usuário não define como a imagem deve ser cortada, podendo gerar danos morais que alteram a interpretação da saída
3- as máquinas podem cometer erros que para humanos não tem sentido pois máquinas “não pensam como humanos”, o senso comum pode não captar a correlação que gerou o erro, sendo difícil entender porque a saída foi tal
4- existe uma falta de dados suficiente para uma análise de imparcialidade para ser comparado com a máquina, é necessário grandes volumes de dados com uma variação bem equilibrada
5- há dificuldade em aplicar valores éticos em maquinas, e quando alguém vai julgar a saída ela julga com base em seus próprios valores, dando o problema de algo ser ofensivo para alguém e para outro não
6- existe dificuldade em definir o'que é um estado "ótimo" para a maquina de maneira universal, pois é necessário definir um estado de excelência para ser alcançado, algo que gera problema em um exemplo de se definir a cor ideal para uma pintura
3.Quais são os Princípios para transparência e responsabilização algorítmica?
Conscientização: os autores dos algoritmos devem estar cientes de que o algoritmo pode conter vieses
Reparo: deve haver mecanismos que compensem os problemas gerados pelos algoritmos
Responsabilidade inatituicional: as instituições devem se responsabilizar por seus algoritmos mesmo que não seja possível explicar a sua saída
Explicação: as instituições devem produzir documentação que explique como seus algoritmos funcionam
Dados: os dados pelos quais os algoritmos foram treinados deve ser mantido
Auditoria: informações sobre o algoritmo devem ser mantidas para caso de suspeita de dano
Testes: as instituições devem realizar testes rigorosos em seus algoritmos para evitar danos em situações reais
4.Como estes princípios podem impactar os desenvolvedores de software?
Estes princípios sendo aplicados irão requerer mais engajamento e mais carga de trabalho, porém os levará a ter uma consciência mais limpa por ter validado com mais rigor o software que desenvolveram, evitando maiores danos
5.Quais os potenciais/possíveis vieses que software de IA podem apresentar?
Visão masculina: a maioria dos desenvolvedores é homem, oque por influência faz os algoritmos tendenciarem as mulheres, seja na Twitch tv, seja no recorte de imagens
Racismo: como dito no artigo, há uma tendência a encontrar mais facilmente rostos brancos doque negros e há preferência pelos brancos
Em geral, os algoritmos podem possuir os vieses segundo sua programação ou banco de dados
Comentários
Postar um comentário