
Por Sona Ghosh, Bloomberg
O chatbot de inteligência artificial Claude, da Anthropologie PBC, e aplicativos relacionados ao consumidor caíram na manhã de segunda-feira, com a startup dizendo que foi sobrecarregada por uma “demanda sem precedentes” por seus serviços na semana passada.
Cerca de 2.000 usuários relataram interrupção do serviço de IA em nuvem no pico da interrupção, por volta das 6h40, horário de Nova York, de acordo com o site de monitoramento de serviços Downdetector. A Anthropic disse em comunicado no WhatsApp que “superfícies voltadas para o consumidor”, como claude.ai e o aplicativo da empresa, estavam offline. As empresas que integraram os modelos de IA de Claude nos seus próprios sistemas não serão afetadas.
“Agradecemos a paciência de todos enquanto trabalhamos para colocar as coisas online novamente durante a demanda sem precedentes que Claude experimentou na semana passada”, disse a Anthropic em comunicado. Às 10h50, horário de Nova York, a empresa disse que a interrupção foi resolvida e todos os sistemas estavam operacionais, de acordo com um site de atualização de status.
A Anthropic tem visto um aumento no uso de seus serviços à medida que contesta o uso potencial de sua tecnologia para desenvolver vigilância em massa e armas autônomas com o Departamento de Defesa dos EUA. O Pentágono declarou a Antrópico um risco para a cadeia de abastecimento, uma medida sem precedentes contra uma empresa americana que ameaça consequências profundas para os seus negócios. O número de usuários gratuitos da nuvem cresceu mais de 60% desde janeiro, e os clientes pagantes mais que dobraram desde outubro, segundo a Anthropic.
A Anthropic estipulou que seus produtos não serão usados para monitorar os americanos ou desenvolver armas totalmente autônomas, e disse na sexta-feira que “nenhuma intimidação ou punição por parte do Departamento de Guerra mudará nossa posição”. A empresa prometeu contestar qualquer notificação oficial de que foi designada como um risco para a cadeia de abastecimento, e o seu CEO, Dario Amodei, chamou a medida de “retaliatória e punitiva” numa entrevista à CBS News.
Horas depois de a Anthropic ter sido declarada um risco para a cadeia de abastecimento, a maior rival OpenAI concordou em implementar os seus próprios modelos de IA dentro da rede secreta do Departamento de Defesa, dizendo que chegou a um acordo que reflecte os princípios da empresa que proíbem a vigilância doméstica em massa e a “responsabilidade humanitária pelo uso da força, incluindo sistemas de armas autónomos”.
A OpenAI, ao defender seu novo contrato, disse que incluiu várias salvaguardas em seu contrato que funcionarão para garantir que seus modelos sejam usados e tratados como parte da implantação. Mas alguns já estavam online no fim de semana pedindo aos usuários que cancelassem suas assinaturas do ChatGPT como resultado do acordo.
Enquanto isso, o aplicativo Cloud liderou a App Store da Apple por vários dias, e os trabalhadores do Vale do Silício se uniram em torno da posição da empresa.



