
Por Khari Johnson, CalMatters
Em dezembro, uma turma de alunos da quarta série da Delevan Drive Elementary School, em Los Angeles, recebeu uma tarefa de casa: escrever um relatório de livro sobre PP das Meias Altas e depois desenhar ou usar inteligência artificial para criar a capa de um livro.
Quando a filha de Jodi Hughes pediu ao Adobe Express for Education, o software de design gráfico fornecido por sua professora, para criar uma imagem de “uma garota ruiva de meias altas e com a trança esticada”, não obteve nada parecido com o personagem de livro infantil sueco que ela descreveu com precisão. Em vez disso, usando Adicionado recentemente Inteligência artificial, criou isso Imagens sexuais de mulheres De cueca e biquíni. Hughes rapidamente contatou outros pais, que disseram ter conseguido reproduzir resultados semelhantes em seus próprios computadores Chromebook fornecidos pela escola. Dias depois, o grupo de pais Escola além da tela LA disse ao conselho escolar que se opõe ao uso adicional do software Adobe.
O incidente levanta questões não apenas sobre o uso de um determinado produto de IA pelo distrito escolar de Los Angeles, mas também sobre ele Diretrizes são fornecidas às escolas pelos administradores estaduais Como adotar a tecnologia com segurança na Califórnia Semanas após o incidente, o Departamento de Educação do estado divulgou uma nova versão das diretrizes, nas quais vem trabalhando há vários meses com a ajuda de um grupo de 50 professores, administradores e especialistas. A alteração surge em resposta a directivas do Legislativo, que aprovou duas leis em 2024 que pediam ao departamento, essencialmente, que controlasse a rápida disseminação da IA entre estudantes, professores e administradores.
Os críticos se perguntam se as diretrizes teriam ajudado os pais a evitar serem chamados de PPGate; A controvérsia, dizem eles, é uma prova de que os distritos, as escolas e os pais, que muitas vezes não têm tempo ou recursos para garantir que as ferramentas de software não produzem resultados prejudiciais, precisam de mais ajuda do Estado. As diretrizes, acrescentam, também são muito vagas em alguns lugares e não fazem o suficiente para definir diretrizes sobre como os professores usam a IA na sala de aula.
Os problemas com as directrizes colocam em questão a forma como o departamento pode responder eficazmente às directivas dos funcionários eleitos para proteger uma tecnologia que, de acordo com as directrizes, pode alienar e ver de forma limitada as crianças.
À medida que a IA se torna rapidamente mais prevalente na sociedade, a gestão eficaz da tecnologia torna-se uma questão urgente. Embora o ChatGPT da OpenAI tenha popularizado a IA generativa há apenas três anos, pesquisas mostram que A maioria dos professores e alunos Em todo o país agora usa alguma tecnologia de energia.
A IA pode ajudar a economizar Tempo dos professores, aprendizagem personalizadaE favorecendo quem não fala inglês ou tem deficiência, pode avaliar seus trabalhos incorretamente e criar imagens que tornar permanente ou intensificar Estereótipo ou Imagens sexuais de mulheresPrincipalmente mulheres negras. Maioria na Califórnia Alunos do ensino fundamental e médio são pessoas de cor. Desde o início da rápida expansão da adoção da IA generativa, os educadores que falaram com o CalMatters sentiram a necessidade de preparar os seus alunos para um futuro em que a IA seja omnipresente e o receio de que as ferramentas de IA possam colar nos testes e criar défices de lógica, raciocínio e pensamento crítico.
“Há uma janela estreita para os professores definirem as regras antes de se tornarem duras”, disse LaShawn Chatmon, CEO do National Equity Project, um grupo de Oakland que ajuda os professores a criar resultados mais equitativos. “As agências de educação locais que aproveitam esta oportunidade para aprender e conceber políticas conjuntamente com estudantes e famílias podem ajudar a mudar quem decide o papel da IA na nossa educação e nas nossas vidas”.
Um porta-voz do distrito disse ao CalMatters que as imagens geradas pelo modelo de IA não estão alinhadas com os padrões do distrito e que “estamos colaborando com a Adobe para resolver o problema”. O vice-presidente de educação da Adobe, Charlie Miller, disse que a empresa lançou mudanças para resolver o problema 24 horas após ouvir sobre o incidente. Miller não respondeu a perguntas sobre como o equipamento foi testado antes da implantação.
Como resultado da experiência de seu filho, Hughes acredita que os alunos não deveriam ser solicitados a usar geradores de texto para imagem nas tarefas de casa. Mas ele não vê tal tentativa de limitar o uso da tecnologia sob a orientação do Departamento de Educação.
“Essas empresas de tecnologia estão comercializando coisas para crianças que ainda não foram totalmente testadas”, disse ele. “Não sei onde traçar o limite, mas a escola primária é muito jovem porque pode ficar muito desagradável muito rápido, como vimos com a equipe da Grok”, acrescentou, referindo-se ao recente abuso do sistema de IA da Grok para remover inconsensualmente roupas de imagens de mulheres e crianças.
Problemas com orientação de IA
O guia fornece uma lista de utilizações inaceitáveis da IA pelos estudantes, tais como plágio, e insta os educadores a integrar situações do mundo real e estudos de caso em discussões para ajudar os estudantes a aplicar princípios éticos a situações práticas. Também diz que os alunos devem ser ensinados a “pensar de forma crítica e criativa” sobre as “vantagens e desafios” das ferramentas de IA.
Julie Flapan, diretora do Projeto de Equidade em Ciência da Computação do Centro X da UCLA, disse que o caso Pippi das Meias Altas trouxe à mente um estudo de 2024 que encontrou jovens negros e latinos Os brancos mais jovens são mais propensos a usar IA generativa. Esses dados, combinados com disparidades históricas no acesso à educação em ciências da computação, disse ele, significam que alguns pais e alunos precisarão de ajuda para pensar criticamente sobre a IA.
“Muitas vezes pensamos nos avanços tecnológicos como uma forma de nivelar o campo de jogo”, disse ele. “Mas o facto é que sabemos que elas agravam a desigualdade.”
Flapan disse que as diretrizes exigem pensamento crítico e verificação das ferramentas de IA antes do uso, e incentivam os líderes educacionais a envolver a comunidade na tomada de decisões. Mas, acrescentou, as diretrizes não detalham como fazer isso.
Charles Logan, um ex-professor que agora dirige um laboratório de tecnologia na Northwestern University, disse que as diretrizes são insuficientes ao não fornecerem orientações claras sobre como professores e pais podem optar por não usar a tecnologia. Uma instituição Brookings Estudar Publicado em Janeiro, com base em entrevistas com estudantes, professores e administradores em 50 países, concluiu que os riscos da IA na sala de aula superam actualmente os benefícios e “podem prejudicar o desenvolvimento fundamental das crianças”.
Mark Johnson, Chefe de Assuntos Governamentais Código.orgelogiou as diretrizes, mas disse que o estado deveria fornecer mais apoio educacional em IA aos educadores e desenvolver proficiência em IA e requisitos de ciência da computação para a graduação. UM Relatórios recentes de Johnson Quatro estados adotaram tais requisitos de graduação após a publicação das diretrizes de IA.
Kathryn Goett, que atuou como coordenadora de ciência da computação do Departamento de Educação até janeiro, quando questionada sobre o incidente das Meias Altas, apontou partes da orientação enfatizando a importância de envolver famílias, comunidades e membros do conselho escolar na avaliação de ferramentas de IA. Ele também disse que o pensamento crítico é importante para evitar tais resultados, apontando para diretrizes que obrigam os administradores a considerar possíveis danos antes do uso.
Orientações adicionais sobre como colocar em prática as orientações recentemente divulgadas estão em andamento: O Grupo de Trabalho de IA do departamento apresentará recomendações políticas específicas com base nas orientações até julho.
O estresse das narrativas de inevitabilidade da IA
A versão mais recente das diretrizes de IA do Departamento de Educação da Califórnia ocorre no momento em que as agências de educação locais se afastam das proibições gerais de IA após o lançamento do ChatGPT da OpenAI em 2022. Em vez disso, os distritos estão caminhando para determinar quando e como os alunos e professores podem usar a tecnologia.
Mesmo os maiores distritos escolares da Califórnia podem enfrentar sérios desafios ao implantar a IA. Em junho de 2024, o superintendente do Los Angeles Unified prometeu os melhores tutores de IA do mundo, mas Depois de semanas, ele teve que ser retirado de uso. Uma semana depois, Surgiu a notícia de que a maioria dos membros do conselho do Distrito Escolar Unificado de San Diego, o segundo maior distrito do estado, assinou um contrato para um currículo que eles não sabiam que incluía uma ferramenta de classificação de IA.
A mudança em direção às diretrizes estaduais e distritais de IA, em vez de proibições, reflete um sentimento mais amplo de inevitabilidade no estado em torno da adoção da tecnologia. Em seu outubro Vetar um projeto de lei Isso teria evitado o uso de chatbot por menores. O governador Gavin Newsom disse que a IA já está moldando o mundo e “não podemos preparar nossos jovens para um futuro onde a IA seja onipresente e impeça completamente o uso dessas ferramentas”.
Logan, que recentemente aconselhou o San Diego Guardians Como prevenir e rejeitar o uso de IA na sala de aulaIsso vai contra a ideia. Ele diz que as diretrizes do Departamento de Educação da Califórnia devem abordar situações em que os pais desejam evitar que seus filhos usem IA.
“É incrível que as diretrizes quisessem que os alunos do jardim de infância fossem usuários qualificados de IA e não houvesse lugar para dizer não ou desistir”, disse ele por telefone.
As diretrizes estaduais de IA unem-se a uma série de esforços para proteger as crianças da IA, incluindo projetos de lei atualmente em tramitação no Legislativo que buscam proibir brinquedos com chatbots complementares e proteger a privacidade dos alunos na era da IA. A Common Sense Media e a OpenAI estão trabalhando para colocar em votação uma iniciativa de segurança online para crianças nas eleições de novembro.



