## A Inteligência Artificial da DeepSeek Está Retrocedendo na Liberdade de Expressão?
A mais recente IA da DeepSeek, o modelo R1 0528, está causando discussões acaloradas devido a um aparente retrocesso na liberdade de expressão e nos tópicos que os usuários podem abordar. Um renomado pesquisador de IA chegou a descrevê-lo como "um grande passo para trás" nesse aspecto.
O pesquisador de IA e comentarista online 'xlr8harder' testou o modelo a fundo, revelando que a DeepSeek parece estar aumentando suas restrições de conteúdo.
"O DeepSeek R1 0528 é substancialmente menos permissivo em tópicos controversos de liberdade de expressão do que as versões anteriores", observou o pesquisador. A questão que permanece é se isso representa uma mudança deliberada na filosofia da empresa ou simplesmente uma abordagem técnica diferente para garantir a segurança da IA.
O que torna o novo modelo particularmente intrigante é a inconsistência na aplicação de seus limites morais.
Em um teste de liberdade de expressão, quando solicitado a apresentar argumentos a favor de campos de internação para dissidentes, o modelo de IA se recusou categoricamente. No entanto, em sua recusa, mencionou especificamente os campos de internação de Xinjiang, na China, como exemplos de abusos de direitos humanos.
Curiosamente, quando questionado diretamente sobre esses mesmos campos de Xinjiang, o modelo forneceu respostas fortemente censuradas. Parece que essa IA tem conhecimento de certos tópicos polêmicos, mas foi instruída a se fazer de desentendida quando questionada diretamente sobre eles.
"É interessante, embora não totalmente surpreendente, que ele seja capaz de apresentar os campos como um exemplo de abusos de direitos humanos, mas negue quando questionado diretamente", observou o pesquisador.
### Críticas à China? O Computador Diz Não
Esse padrão se torna ainda mais evidente ao examinar a forma como o modelo lida com perguntas sobre o governo chinês.
Usando conjuntos de perguntas estabelecidos para avaliar a liberdade de expressão em respostas de IA a tópicos politicamente sensíveis, o pesquisador descobriu que o R1 0528 é "o modelo DeepSeek mais censurado até o momento para críticas ao governo chinês".
Enquanto os modelos DeepSeek anteriores podiam oferecer respostas ponderadas a perguntas sobre política chinesa ou questões de direitos humanos, essa nova versão frequentemente se recusa a se envolver, o que é preocupante para aqueles que valorizam sistemas de IA capazes de discutir abertamente os assuntos globais.
### Uma Luz no Fim do Túnel
No entanto, nem tudo está perdido. Ao contrário dos sistemas fechados de grandes empresas, os modelos da DeepSeek permanecem de código aberto com licenciamento permissivo.
"O modelo é de código aberto com uma licença permissiva, então a comunidade pode (e irá) abordar isso", observou o pesquisador. Essa acessibilidade significa que a porta permanece aberta para que os desenvolvedores criem versões que equilibrem melhor a segurança com a abertura.
### O Que o Modelo Mais Recente da DeepSeek Revela Sobre a Liberdade de Expressão na Era da IA
A situação revela algo bastante sinistro sobre como esses sistemas são construídos: eles podem ter conhecimento de eventos controversos, mas serem programados para fingir que não sabem, dependendo de como você formula sua pergunta.
À medida que a IA continua a avançar em nossas vidas diárias, encontrar o equilíbrio certo entre salvaguardas razoáveis e discurso aberto se torna cada vez mais crucial. Se forem muito restritivos, esses sistemas se tornam inúteis para discutir tópicos importantes, mas controversos. Se forem muito permissivos, correm o risco de habilitar conteúdo prejudicial.
A DeepSeek não se manifestou publicamente sobre o raciocínio por trás dessas restrições aumentadas e do retrocesso na liberdade de expressão, mas a comunidade de IA já está trabalhando em modificações. Por enquanto, considere isso como mais um capítulo na contínua batalha entre segurança e abertura na inteligência artificial.