(Reuters) - A OpenAI anunciou na noite de segunda-feira que seu comitê de segurança supervisionará os processos de desenvolvimento e a implantação do modelo de inteligência artificial da empresa, como um órgão independente.
A OpenAI, a empresa desenvolvedora do chatbot ChatGPT, formou o Comitê de Segurança e Proteção em maio deste ano para avaliar e desenvolver práticas de segurança na empresa.
Como parte das recomendações do comitê, a OpenAI disse que está avaliando o desenvolvimento de um "Centro de Análise e Compartilhamento de Informações (ISAC) para o setor de IA, para permitir o compartilhamento de informações sobre inteligência contra ameaças e segurança digital entre entidades do setor de IA".