Nosso papel não é evocar uma estrutura ética isoladamente. Este artigo explora como podemos desenvolver coletivamente uma visão partilhada da IA ética na educação e decidir em conjunto sobre as estruturas necessárias para apoiar esta visão. Encorajamos educadores, acadêmicos, ativistas, tecnólogos, pais e, claro, alunos a contribuir para esta visão partilhada.
Possíveis benefícios da IA na educação
Muitas afirmações ousadas foram feitas sobre os benefícios que a inteligência artificial (IA) poderia trazer para os alunos. A UNESCO propôs que, ao proporcionar oportunidades de aprendizagem personalizada em grande escala, a IA poderia contribuir para a consecução do Objectivo de Desenvolvimento Sustentável 4 – garantir uma educação inclusiva e equitativa e promover oportunidades de aprendizagem ao longo da vida para todos.
A NESTA sugeriu que os recursos de IA poderiam ajudar a impulsionar a mobilidade social, melhorando o ensino e a aprendizagem e melhorando o acesso a materiais de aprendizagem de alta qualidade. Também foi argumentado que a IA na Educação (AIEd) poderia facilitar transformações nos sistemas de avaliação, permitir o acesso a “companheiros de aprendizagem ao longo da vida” para todos, ajudar a resolver a crise de recrutamento e retenção de professores e resolver a escassez global de professores.
Os benefícios apresentados pela AIEd decorrem de três fatores fundamentais.
A IA pode aumentar a capacidade dos sistemas educativos e aumentar a produtividade dos educadores. Ao reduzir a carga de trabalho dos professores e ampliar a oferta acessível e de alta qualidade e oportunidades de aprendizagem, as ferramentas de IA poderão resolver problemas de recrutamento e retenção de professores e permitir a oferta de aprendizagem ao longo da vida ao nível mundial.
AIEd pode fornecer informações valiosas que podem melhorar o ensino e a aprendizagem e apoiar o desenvolvimento completo dos alunos. “IA é uma ferramenta poderosa que pode abrir a 'caixa preta' da aprendizagem, fornecendo uma análise profunda e refinada do que os alunos estão fazendo enquanto aprendem, o que significa que a sua aprendizagem pode ser 'descompactada' à medida que acontece.” Esta funcionalidade pode ser usada para fornecer insights para professores e alunos.
AIEd pode fornecer recomendações de aprendizagem autônoma. A doação para a educação. Aulas individuais ministradas por profissionais experientes, em coordenação com o ensino em sala de aula, podem resultar no equivalente a cinco meses adicionais de progresso para os alunos por ano. Através de recomendações de aprendizagem autônoma, o AIEd permite instrução individualizada e aprendizagem personalizada em grande escala.
Possíveis riscos da IA na educação
Esses requisitos nos permitem começar a compreender os riscos que a IA pode representar para os alunos.
Requisito: Agência Humana e Supervisão: “Os sistemas de IA devem apoiar a autonomia humana e a tomada de decisões, conforme prescrito pelo princípio do respeito pela autonomia humana... e permitir a supervisão humana.” Potenciais danos aos alunos.
A agência dos alunos poderia diminuir se os sistemas de IA reduzissem o pensamento independente e introspectivo e conduzissem ao subdesenvolvimento de competências de pensamento de ordem superior e de autorregulação.
Os alunos podem tornar-se excessivamente dependentes dos sistemas de IA, diminuindo assim a sua autonomia geral.
A educação poderia tornar-se despersonalizada e menos eficaz se a supervisão humana fosse prejudicada.
Requisito: Robustez Técnica e Segurança: A robustez técnica e a segurança consistem em que os sistemas de IA sejam seguros e resilientes a ataques, tenham um plano de recurso em caso de problemas, sejam suficientemente precisos e sejam capazes de produzir resultados confiáveis e reprodutíveis.
Dados altamente sensíveis relativos aos processos de aprendizagem dos indivíduos (incluindo dados sobre emoções) podem ser pirateados por partes mal-intencionadas.
Os sistemas de IA podem fazer recomendações imprecisas – por ex. sobre que curso universitário estudar, que carreira seguir ou sobre como lidar com um problema de saúde mental - isso pode prejudicar os alunos.
Os sistemas pastorais de IA podem não conseguir identificar necessidades urgentes de salvaguarda – tais como riscos de automutilação – perdendo assim oportunidades para proteger as pessoas vulneráveis.
Requisito: Diversidade, não discriminação e justiça: “Para alcançar uma IA confiável, devemos permitir a inclusão e a diversidade ao longo de todo o ciclo de vida do sistema de IA.”
Devido ao preconceito algorítmico, alguns grupos de alunos podem ser discriminados injustamente. Por exemplo, uma ferramenta de análise preditiva que prevê os estudantes universitários que correm maior risco de abandonar a universidade pode superestimar a probabilidade de os alunos oriundos de meios socioeconômicos mais baixos abandonarem a universidade e, portanto, levar a ações discriminatórias.
Um sistema de IA poderia ser mais eficaz para estudantes do sexo masculino devido ao treinamento em conjuntos de dados que incluíam mais homens do que mulheres.
Requisito: Privacidade e governança de dados: A privacidade é “um direito fundamental particularmente afetado pelos sistemas de IA. A prevenção de danos à privacidade também exige uma governação de dados adequada que abranja a qualidade e a integridade dos dados utilizados, a sua relevância à luz do domínio em que os sistemas de IA serão implantados, os seus protocolos de acesso e a capacidade de processar dados de uma forma que protege a privacidade.”
Dados altamente íntimos - incluindo pontos fortes, vulnerabilidades, hábitos comportamentais e informações biométricas dos alunos - podem ser usados de forma inadequada para explorar, manipular ou oprimir os alunos.
A má governação dos dados dos alunos pode levar a resultados ineficazes. Os alunos poderiam perder o controlo sobre quem tinha acesso aos seus dados de desempenho acadêmico, o que poderia levar os empregadores ou as instituições de ensino a terem acesso a um nível desproporcionalmente elevado de informações sobre os candidatos contra a sua vontade.
Requisito: Transparência: A transparência exige que “os conjuntos de dados e os processos que geram a decisão do sistema de IA, incluindo aqueles de coleta e rotulagem de dados, bem como os algoritmos usados, sejam documentados com o melhor padrão possível para permitir a rastreabilidade e um aumento da transparência” (rastreabilidade); “que as decisões tomadas por um sistema de IA possam ser compreendidas e rastreadas pelos seres humanos” (explicabilidade); e que “os sistemas de IA não devem representar-se como seres humanos perante os utilizadores.”
A redação de um aluno pode ter sido corrigida por um sistema de IA e o aluno e os educadores relevantes podem não conseguir compreender o veredito. Isto pode levar a resultados injustos ou a oportunidades perdidas de desenvolvimento adicional com base no feedback.
A um aluno pode ser negada uma vaga num determinado curso universitário e não ter meios de procurar reparação ou explicação devido à opacidade inerente ao sistema.
Requisito: Bem-estar social e ambiental: “A sociedade em geral, outros seres sencientes e o ambiente também devem ser considerados partes interessadas ao longo de todo o ciclo de vida do sistema de IA. A sustentabilidade e a responsabilidade ecológica dos sistemas de IA devem ser incentivadas e a investigação deve ser promovida em soluções de IA que abordem áreas de preocupação global, como, por exemplo, os Objetivos de Desenvolvimento Sustentável.
A AIEd pode enfraquecer as capacidades dos seres humanos de interagir uns com os outros, devido a uma redução - ou falta de ênfase - nas competências interpessoais.
A IA poderia levar a maiores desigualdades educativas na sociedade, criando assim mais divisões, se AIEd altamente eficazes fossem mais acessíveis a alguns grupos do que a outros.
Requisito: Responsabilidade: Este requisito “necessita que sejam criados mecanismos para garantir a responsabilidade e a responsabilização pelos sistemas de IA e pelos seus resultados, tanto antes como depois do seu desenvolvimento, implantação e utilização.”
A AIEd pode desgastar as estruturas de responsabilização na escola e causar dificuldades na decisão de quem é responsável pelo mau desempenho ou pelos resultados inapropriados, ou prejudiciais.
As evidências dos impactos das tecnologias que são atualmente amplamente utilizadas pelas crianças e outros alunos também nos permitem antecipar possíveis riscos da IA na educação. Descobriu-se que técnicas de design persuasivo - incluindo pergaminhos infinitos, convocações agressivas, mecanismos de obrigação social e não ter meios de salvar o progresso - empregadas em tecnologias como mídias sociais, têm um impacto negativo na saúde mental dos usuários e na capacidade de formar fortes relacionamentos. Existe o risco de que as técnicas de design persuasivas possam ser reforçadas por sistemas de IA que possam prever, com elevados níveis de precisão, quais as técnicas de persuasão que serão mais eficazes.
Comentarios