fbpx

DeepSeek-R1: A Revolução da Inteligência Artificial de Código Aberto

Nos últimos anos, a inteligência artificial (IA) tem evoluído a passos largos, impulsionada por Modelos de Linguagem de Grande Escala (LLMs). Esses modelos estão transformando a maneira como interagimos com a tecnologia, desde assistentes virtuais até ferramentas de criação de conteúdo e análise de dados. No entanto, um desafio central persiste: a maior parte desses modelos avançados é fechada, ou seja, pertence a grandes empresas e não está disponível para o público em geral.

É nesse cenário que surge o DeepSeek-R1, um modelo de IA inovador que busca democratizar o acesso à tecnologia avançada por meio do código aberto. Mas o que torna o DeepSeek-R1 diferente? Como ele é treinado e por que ele pode representar um novo paradigma no desenvolvimento da inteligência artificial? Neste artigo, vamos explorar esses temas de maneira didática, começando pelos conceitos fundamentais.


1. A Revolução da Inteligência Artificial e o Papel dos LLMs

A inteligência artificial sempre despertou curiosidade e entusiasmo, mas nos últimos anos, sua evolução tem sido impressionante. Modelos de IA modernos podem escrever textos, responder perguntas, traduzir idiomas e até programar. Tudo isso é possível graças aos Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês), que são redes neurais treinadas em vastos volumes de texto para entender e gerar linguagem humana.

Como funcionam os LLMs?

Imagine que você tem um grande quebra-cabeça, mas em vez de imagens, ele é composto por palavras e frases. Os LLMs aprendem a prever quais peças (palavras) se encaixam melhor no contexto, analisando bilhões de exemplos retirados da internet, livros, artigos científicos e outros conteúdos textuais. Isso permite que eles respondam perguntas e gerem textos com fluidez surpreendente.

Os LLMs modernos, como os da OpenAI e da DeepMind, são extremamente poderosos, mas a maioria deles é fechada ao público. Isso significa que, embora possamos usá-los em plataformas como ChatGPT ou Google Bard, não temos acesso ao seu código ou ao processo de treinamento.

Essa falta de transparência cria um problema: o desenvolvimento da inteligência artificial fica concentrado nas mãos de poucas empresas, dificultando pesquisas independentes e o avanço da tecnologia de forma mais acessível.

É aqui que entra o DeepSeek-R1, um modelo que promete trazer inovação e transparência ao mundo da IA.


2. O Que é o DeepSeek-R1 e Por Que Ele É Diferente?

DeepSeek-R1 é um novo modelo de IA desenvolvido com um propósito claro: melhorar a capacidade de raciocínio dos LLMs e tornar essa tecnologia acessível para pesquisadores, desenvolvedores e entusiastas da inteligência artificial. Ele se destaca por três razões principais:

  1. Código Aberto – Diferente de modelos como o OpenAI o1, que são fechados, o DeepSeek-R1 é de código aberto. Isso significa que qualquer pessoa pode estudar seu funcionamento, ajustá-lo e até desenvolver melhorias com base nele.
  2. Foco em Raciocínio Avançado – Enquanto muitos LLMs são treinados para prever palavras e gerar respostas, o DeepSeek-R1 foi projetado para aprimorar sua capacidade de raciocinar. Isso significa que ele pode lidar melhor com tarefas complexas, como resolver problemas matemáticos ou estruturar argumentos lógicos.
  3. Uso de Aprendizado por Reforço – O modelo não apenas aprende com textos existentes, mas também melhora por meio de um processo de otimização chamado Aprendizado por Reforço. Vamos explorar esse conceito mais adiante, mas, em resumo, ele permite que a IA refine suas respostas com base em feedback contínuo.

Por que o DeepSeek-R1 é importante?

O desenvolvimento do DeepSeek-R1 representa um passo importante para o futuro da IA por algumas razões:

  • Maior acesso à tecnologia – Pesquisadores independentes podem usar o modelo sem depender de empresas privadas.
  • Transparência – O código aberto permite que especialistas avaliem como o modelo foi treinado, evitando vieses e problemas éticos.
  • Possibilidade de melhorias contínuas – Comunidades de desenvolvedores podem contribuir para o aperfeiçoamento do modelo.

Em um mundo onde a IA está cada vez mais presente em nossas vidas, ter alternativas abertas e acessíveis é essencial para garantir que essa tecnologia beneficie a todos.

3. O Processo Tradicional de Treinamento dos LLMs

Para que um modelo de IA como o DeepSeek-R1 possa gerar respostas coerentes e inteligentes, ele passa por um treinamento rigoroso que ocorre em três etapas principais:

1. Pré-Treinamento: A Fase de Aprendizado Bruto

O primeiro estágio é o pré-treinamento, no qual o modelo é alimentado com enormes quantidades de texto retiradas da internet, livros, artigos científicos, códigos de programação e outras fontes. O objetivo aqui é ensinar ao modelo padrões linguísticos e conhecimento geral, permitindo que ele aprenda a prever a próxima palavra em uma sequência de texto.

Imagine que você escreve a frase:
“O Sol nasce no…”

Um modelo pré-treinado pode prever corretamente que a próxima palavra deve ser “leste”, porque ele aprendeu essa informação ao analisar milhões de textos.

No entanto, o pré-treinamento tem uma limitação: ele não ensina ao modelo como interagir de maneira natural e útil com humanos. Ele apenas aprende a continuar frases de maneira estatisticamente provável. Isso significa que, sozinho, um modelo pré-treinado ainda pode gerar respostas irrelevantes, inconsistentes ou que não seguem instruções corretamente.

2. Ajuste Fino Supervisionado (Supervised Fine-Tuning – SFT)

Para melhorar a capacidade de seguir instruções, o modelo passa por uma segunda etapa: o ajuste fino supervisionado. Nesta fase, ele é treinado com um conjunto de dados que contém perguntas e respostas já validadas por humanos.

Por exemplo, se o modelo receber a pergunta:
“Qual é a capital da França?”

Ele pode inicialmente responder algo genérico ou incompleto. Mas, durante o ajuste fino, os desenvolvedores mostram a ele que a resposta correta é “Paris” e ensinam o modelo a priorizar esse tipo de resposta direta e informativa.

O ajuste fino supervisionado torna os modelos mais úteis, mas ainda assim há desafios. Muitas vezes, ele não é suficiente para garantir respostas precisas em tarefas complexas, como resolver problemas matemáticos ou gerar código de programação correto.

3. Aprendizado por Reforço: O Treinamento com Feedback

A terceira etapa envolve um refinamento adicional usando o Aprendizado por Reforço a partir do Feedback Humano (RLHF). Aqui, humanos avaliam as respostas do modelo e fornecem feedback para ajudar a IA a entender quais respostas são boas e quais precisam de melhorias.

Por exemplo, se um modelo gerar duas respostas para uma pergunta complexa, os avaliadores podem escolher a melhor. O modelo então aprende a priorizar respostas mais precisas e bem estruturadas no futuro.

Essa técnica melhora significativamente a qualidade das respostas, mas exige uma grande quantidade de trabalho humano, tornando o processo caro e demorado.


4. DeepSeek-R1-Zero: Eliminando o Ajuste Fino Supervisionado

Agora que entendemos o processo tradicional de treinamento de LLMs, podemos falar sobre a grande inovação do DeepSeek-R1-Zero, a primeira versão experimental do DeepSeek-R1.

O que torna o DeepSeek-R1-Zero diferente?

O DeepSeek-R1-Zero elimina completamente a etapa de ajuste fino supervisionado e aposta apenas no Aprendizado por Reforço.

Isso significa que, em vez de depender de humanos para ajustar suas respostas, ele é treinado diretamente a partir de regras pré-estabelecidas que avaliam a qualidade de suas respostas. Esse método reduz custos e acelera o processo de treinamento.

O modelo começa a partir do DeepSeek-V3-Base, um LLM pré-treinado com 671 bilhões de parâmetros, e passa diretamente para o aprendizado por reforço, sem intervenção humana na fase intermediária.

Vantagens desse método

  1. Redução de custos – Como não há necessidade de criar um conjunto de dados rotulados por humanos, o treinamento se torna mais barato e escalável.
  2. Maior capacidade de aprendizado autônomo – O modelo aprende a melhorar suas respostas com base em um sistema automatizado de recompensas.
  3. Possibilidade de aprimoramento contínuo – O treinamento pode ser refinado ao longo do tempo sem a necessidade de constante intervenção humana.

Desafios do DeepSeek-R1-Zero

Apesar dos avanços, eliminar o ajuste fino supervisionado também tem desvantagens:

  • O modelo pode apresentar problemas de legibilidade, gerando respostas que não são fáceis de entender.
  • Há risco de inconsistência linguística, onde as respostas podem misturar diferentes idiomas ou apresentar estilos de escrita variados.

Essas limitações levaram ao desenvolvimento do DeepSeek-R1, que combina a abordagem do DeepSeek-R1-Zero com melhorias para tornar as respostas mais claras e consistentes.


5. Aprendizado por Reforço Baseado em Regras: Como a IA Aprende sem Humanos

O grande diferencial do DeepSeek-R1-Zero é que ele não depende de feedback humano para melhorar suas respostas. Em vez disso, ele utiliza um sistema chamado Group Relative Policy Optimization (GRPO), um método desenvolvido pela equipe da DeepSeek.

Como funciona o GRPO?

Diferente do Aprendizado por Reforço tradicional, no qual humanos avaliam e classificam respostas da IA, o GRPO usa regras pré-estabelecidas para orientar o modelo.

Funciona assim:

  1. O modelo recebe uma entrada, como uma pergunta ou um problema matemático.
  2. Ele gera várias respostas possíveis.
  3. Cada resposta recebe uma pontuação com base em um conjunto de regras automáticas de avaliação.
  4. O modelo é treinado para priorizar as respostas que obtêm pontuações mais altas.

Quais são as regras usadas para avaliar as respostas?

O GRPO se baseia em dois critérios principais:

  • Precisão: Se a resposta pode ser verificada de forma objetiva, ela recebe uma pontuação com base em sua correção. Por exemplo:
    • Em problemas matemáticos, a resposta pode ser comparada ao resultado correto.
    • Em código de programação, testes automatizados podem verificar se o código funciona.
  • Formato: O modelo é incentivado a estruturar suas respostas corretamente.
    • No artigo original, há um exemplo no qual a IA é treinada para sempre colocar seu raciocínio entre tags <think> e sua resposta final entre <answer>.
    • Isso ajuda a organizar a saída da IA e torna suas respostas mais fáceis de interpretar.

Vantagens desse método

  • Redução de custos: Como não há necessidade de humanos para avaliar as respostas, o treinamento se torna muito mais barato.
  • Escalabilidade: A IA pode ser treinada em grandes volumes de dados sem limitações humanas.
  • Evita viés humano: Como a avaliação é feita com base em regras fixas, há menor risco de viés nas respostas.

Desafios desse método

Apesar dos benefícios, o uso de regras fixas pode ter limitações:

  • O modelo pode aprender a otimizar para as regras em vez de realmente entender as questões (um fenômeno conhecido como reward hacking).
  • Para perguntas mais abertas, como questões filosóficas ou sociais, não há uma resposta “certa ou errada”, o que torna difícil aplicar esse método.

O GRPO é uma solução engenhosa para treinar IA em larga escala, mas seus resultados precisam ser analisados cuidadosamente.


6. O Desempenho do DeepSeek-R1-Zero: Como Ele se Compara a Outras IAs?

Agora que entendemos como o DeepSeek-R1-Zero aprende, a pergunta que fica é: ele é realmente eficaz? Para responder a isso, os pesquisadores compararam seu desempenho com o OpenAI o1, um dos modelos mais avançados da atualidade.

Comparação com o OpenAI o1

Em benchmarks de raciocínio lógico, o DeepSeek-R1-Zero se mostrou tão bom quanto o OpenAI o1 e, em alguns casos, até superior.

Uma das métricas analisadas foi o pass@1 no conjunto de dados AIME, que mede a precisão do modelo em resolver problemas matemáticos e lógicos. Durante o treinamento, o desempenho do DeepSeek-R1-Zero subiu de 15,6% para 71%, atingindo níveis comparáveis aos da OpenAI.

Isso é um feito notável, especialmente considerando que o OpenAI o1 é um modelo fechado e altamente otimizado.

Como o DeepSeek-R1-Zero melhora ao longo do tempo?

Uma observação interessante feita pelos pesquisadores foi que, à medida que o modelo era treinado com o GRPO, ele naturalmente passava a gastar mais tempo “pensando” antes de responder.

Isso significa que, conforme o treinamento avançava, a IA aprendia sozinha a processar mais informações antes de fornecer uma resposta – um comportamento análogo ao de um ser humano que reflete antes de falar.

Limitações do DeepSeek-R1-Zero

Apesar dos resultados impressionantes, o DeepSeek-R1-Zero apresentou dois problemas importantes:

  1. Baixa legibilidade: Como o modelo não passou pelo ajuste fino supervisionado, suas respostas nem sempre eram bem estruturadas e podiam parecer confusas.
  2. Inconsistência linguística: Em alguns casos, o modelo misturava diferentes idiomas dentro da mesma resposta, o que dificultava a compreensão.

Esses problemas levaram à necessidade de criar o DeepSeek-R1, uma versão aprimorada do modelo que melhora a clareza e a consistência das respostas sem comprometer o desempenho.

7. O Processo de Auto-Evolução do DeepSeek-R1-Zero

Um dos aspectos mais intrigantes do DeepSeek-R1-Zero é que ele demonstra um comportamento emergente: ele aprende sozinho a pensar por mais tempo antes de responder, sem que isso tenha sido programado explicitamente.

O que significa auto-evolução?

Durante o treinamento por reforço, os pesquisadores observaram que, com o passar do tempo, o modelo começava a aumentar o comprimento de suas respostas. Isso significa que, quando confrontado com um problema mais complexo, ele espontaneamente passava mais tempo processando a questão antes de apresentar uma resposta final.

Isso é análogo ao comportamento humano:

  • Quando recebemos uma pergunta simples, respondemos rapidamente.
  • Quando lidamos com um problema difícil, precisamos parar, pensar e estruturar a resposta antes de falar.

O que torna isso impressionante é que o DeepSeek-R1-Zero não foi explicitamente programado para fazer isso – ele aprendeu sozinho que gastar mais tempo “pensando” melhora suas respostas.

Como isso acontece?

Esse comportamento emergiu naturalmente devido ao treinamento com aprendizado por reforço baseado em regras. O modelo descobriu que respostas mais detalhadas e estruturadas tendiam a receber pontuações mais altas, e, por isso, ele começou a gerar saídas mais longas e bem elaboradas.

Os pesquisadores representaram esse fenômeno em gráficos mostrando que, à medida que o número de passos de treinamento aumentava, o tamanho médio das respostas do modelo também crescia.

Esse é um exemplo impressionante de como os modelos de IA podem desenvolver estratégias inteligentes sem que isso tenha sido explicitamente codificado pelos programadores.

Mas essa não foi a única descoberta surpreendente…


8. O ‘Aha Moment’: Quando a IA Aprende a Corrigir Seus Próprios Erros

Outro fenômeno fascinante observado no treinamento do DeepSeek-R1-Zero foi o que os pesquisadores chamaram de “Aha Moment”.

O que é o Aha Moment?

O Aha Moment acontece quando o modelo, ao resolver um problema, percebe que pode ter cometido um erro e decide refazer sua abordagem antes de dar a resposta final.

Os pesquisadores notaram que, ao resolver problemas matemáticos, por exemplo, o DeepSeek-R1-Zero frequentemente começava a seguir um caminho lógico, mas depois, antes de chegar à resposta final, interrompia seu próprio raciocínio, revisava os cálculos e ajustava sua conclusão.

Isso é algo que humanos fazem naturalmente. Quando estamos resolvendo uma equação ou escrevendo um argumento lógico, frequentemente percebemos um erro no meio do processo e voltamos para corrigi-lo antes de finalizar a resposta.

Por que isso é revolucionário?

  • Indica um nível mais profundo de aprendizado: O modelo não apenas gera respostas mecanicamente, mas desenvolve uma espécie de autoconsciência sobre a qualidade do seu próprio raciocínio.
  • Aprimora a confiabilidade da IA: Como o DeepSeek-R1-Zero pode revisar e corrigir suas próprias respostas antes de apresentá-las, ele reduz erros, tornando-se mais preciso.
  • Se aproxima da cognição humana: Modelos de IA normalmente seguem um caminho fixo para resolver problemas, mas o Aha Moment sugere que eles podem desenvolver flexibilidade cognitiva, algo essencial para inteligência avançada.

Exemplo Prático do Aha Moment

Os pesquisadores deram ao modelo um problema matemático. No início da resposta, ele começou a resolver da maneira tradicional. Porém, em certo ponto, ele parou, reavaliou os passos anteriores e corrigiu seu próprio raciocínio antes de dar a resposta final.

Isso é um marco importante, pois mostra que o DeepSeek-R1-Zero não apenas aprende a resolver problemas, mas também aprende a questionar sua própria solução e refazê-la se necessário.


9. Por Que o DeepSeek-R1 Foi Necessário?

Apesar do sucesso do DeepSeek-R1-Zero em superar modelos fechados como o OpenAI o1 em certos benchmarks, ele ainda apresentava problemas significativos que prejudicavam sua aplicação no mundo real.

1. Problema da Legibilidade

  • O modelo gerava respostas corretas, mas muitas vezes elas eram longas, confusas ou excessivamente técnicas.
  • Como o treinamento era baseado apenas em aprendizado por reforço (sem ajuste fino supervisionado), o modelo não recebeu orientações claras sobre como estruturar suas respostas de forma mais compreensível.
  • Isso dificultava seu uso para tarefas que exigem explicações mais diretas e acessíveis, como assistência a usuários comuns.

2. Problema da Consistência Linguística

  • Outro desafio era que o DeepSeek-R1-Zero frequentemente misturava idiomas na mesma resposta, algo incomum em modelos de IA.
  • Isso acontecia porque o modelo aprendeu que, em certos contextos, diferentes idiomas podem melhorar a precisão da resposta (por exemplo, termos técnicos em inglês podem ser mais precisos do que em outras línguas).
  • No entanto, para o usuário comum, isso resultava em uma experiência confusa, especialmente quando o modelo alternava entre línguas sem um motivo claro.

Os pesquisadores enfrentaram um dilema: se treinassem o modelo para ser mais consistente em um único idioma, sua performance caía. Isso sugere que a capacidade de raciocinar melhor estava, de alguma forma, ligada à flexibilidade linguística do modelo.

Para corrigir esses problemas sem comprometer o desempenho, os pesquisadores desenvolveram o DeepSeek-R1, que manteve as vantagens do DeepSeek-R1-Zero, mas melhorou a clareza e a coerência das respostas.


10. Como o DeepSeek-R1 Aprimorou a Legibilidade e a Consistência?

O DeepSeek-R1 foi projetado para corrigir os problemas de usabilidade do DeepSeek-R1-Zero sem comprometer suas capacidades de raciocínio avançado.

1. Refinamento da Estrutura das Respostas

Para melhorar a legibilidade, os pesquisadores implementaram um novo conjunto de regras no treinamento por reforço. Essas regras incentivaram o modelo a:

  • Gerar respostas mais curtas e objetivas quando apropriado.
  • Seguir uma estrutura lógica mais clara, dividindo informações complexas em partes menores e mais compreensíveis.
  • Evitar redundâncias e explicações excessivamente técnicas.

Com essas mudanças, as respostas do DeepSeek-R1 passaram a ser mais fáceis de entender, sem sacrificar a profundidade do raciocínio.

2. Controle da Consistência Linguística

Para evitar que o modelo misturasse idiomas, os pesquisadores aplicaram restrições linguísticas durante o treinamento, orientando o modelo a responder em um único idioma por vez.

No entanto, isso apresentou um desafio: quando a IA era forçada a usar apenas um idioma, sua performance caía ligeiramente em algumas tarefas complexas.

Isso indica que a capacidade de raciocínio do modelo estava, de alguma forma, ligada à sua flexibilidade linguística. Ainda assim, para melhorar a experiência do usuário, os pesquisadores optaram por priorizar a consistência na linguagem, garantindo que cada resposta fosse escrita inteiramente em um único idioma.

11. O Treinamento em Quatro Fases e os Resultados do DeepSeek-R1

Para entender como o DeepSeek-R1 atingiu níveis tão altos de desempenho, precisamos olhar para o pipeline de treinamento, que foi dividido em quatro fases.

As Quatro Fases do Treinamento do DeepSeek-R1

  1. Pré-Treinamento em Grande Escala
    • O modelo foi inicialmente treinado em vastos conjuntos de dados contendo texto, código e lógica, semelhante a outros LLMs.
    • Nessa fase, ele aprendeu padrões gerais de linguagem e conhecimento básico sobre o mundo.
  2. Treinamento por Reforço Baseado em Regras (GRPO)
    • Assim como no DeepSeek-R1-Zero, o modelo recebeu múltiplas respostas para cada entrada e foi treinado para priorizar aquelas que seguiam critérios de precisão e clareza.
    • Esse processo ajudou a IA a aprimorar sua capacidade de raciocínio lógico e resolução de problemas.
  3. Ajustes para Melhorar Legibilidade e Consistência Linguística
    • Para corrigir os problemas observados no DeepSeek-R1-Zero, foram implementadas regras que incentivavam respostas mais curtas, diretas e coesas.
    • Restrições linguísticas foram aplicadas para evitar a mistura de idiomas dentro da mesma resposta.
  4. Refinamento Final com Avaliações Comparativas
    • O modelo foi testado em diversos benchmarks e comparado a outras IAs para garantir que ele não apenas mantivesse sua qualidade, mas também superasse modelos fechados em determinadas tarefas.

Os Resultados do DeepSeek-R1 em Comparação com OpenAI o1

Após esse treinamento rigoroso, o DeepSeek-R1 foi comparado ao OpenAI o1, um dos modelos mais avançados do mercado.

Os resultados foram impressionantes:

  • O DeepSeek-R1 atingiu ou superou o desempenho do OpenAI o1 em vários benchmarks de raciocínio lógico.
  • No conjunto de dados AIME (voltado para problemas matemáticos e científicos), o modelo apresentou uma taxa de acerto de 71%, igualando ou superando o OpenAI o1.
  • Com as melhorias implementadas, o DeepSeek-R1 se tornou mais fácil de usar e compreender, corrigindo os problemas que afetavam a experiência do usuário.

Esses resultados consolidam o DeepSeek-R1 como uma das principais inovações em inteligência artificial aberta, oferecendo uma alternativa viável e transparente a modelos proprietários como os da OpenAI e Google.


Conclusão: O Impacto do DeepSeek-R1 na Inteligência Artificial

DeepSeek-R1 representa um avanço significativo para o futuro da IA, tanto em termos tecnológicos quanto filosóficos. Ao longo deste artigo, exploramos como esse modelo evoluiu, desde sua primeira versão experimental (DeepSeek-R1-Zero) até se tornar uma IA mais acessível, poderosa e confiável.

O que torna o DeepSeek-R1 tão importante?

  1. É um modelo de código aberto
    • Diferente dos modelos fechados da OpenAI, o DeepSeek-R1 permite que pesquisadores, desenvolvedores e empresas independentes estudem e aprimorem a tecnologia de IA sem depender de grandes corporações.
    • Isso democratiza o acesso à inteligência artificial e acelera a inovação global.
  2. Traz um novo paradigma no treinamento de IA
    • Ao eliminar o ajuste fino supervisionado e usar aprendizado por reforço baseado em regras, o DeepSeek-R1 demonstrou que é possível treinar modelos avançados sem a necessidade de grandes volumes de feedback humano, tornando o processo mais eficiente e escalável.
  3. Atinge ou supera modelos proprietários em algumas tarefas
    • O fato de um modelo aberto alcançar níveis comparáveis aos de um modelo fechado como o OpenAI o1 é um marco para a comunidade de IA.
    • Isso mostra que a inovação não precisa estar restrita a empresas privadas com grandes orçamentos.
  4. Desenvolveu características surpreendentes, como auto-evolução e o Aha Moment
    • O modelo aprendeu sozinho a gastar mais tempo processando problemas difíceis antes de responder.
    • Também demonstrou a capacidade de revisar e corrigir suas próprias respostas, um comportamento emergente que o aproxima do raciocínio humano.

O Futuro da IA Aberta

O lançamento do DeepSeek-R1 abre caminho para um novo ecossistema de IA, onde modelos abertos podem competir de igual para igual com soluções proprietárias. Isso não só impulsiona a inovação, mas também traz benefícios significativos para a transparência, a ética e a acessibilidade da inteligência artificial.

À medida que a IA continua evoluindo, modelos como o DeepSeek-R1 mostram que é possível avançar sem sacrificar a abertura e a colaboração. O futuro da IA pode estar cada vez mais nas mãos de comunidades abertas, promovendo um desenvolvimento mais democrático e inclusivo.

Referência

AI PAPERS ACADEMY. DeepSeek-R1 Paper Explained – A New RL LLMs Era in AI? Medium, jan. 2025. Disponível em: https://medium.com/@aipapers/deepseek-r1-paper-explained-a-new-rl-llms-era-in-ai-6d3271401270. Acesso em: 30 de Janeiro de 2025

- 5 de fevereiro de 2025
🤩 SIGA A GENTE NAS REDES
👉 Instagram: https://www.instagram.com/portalcontnews
👉 Notícias via Whatsapp_Folha: https://www.subscribepage.com/whatsfolha
👉 Notícias via Whatsapp_Fiscal: https://www.subscribepage.com/whatsfiscal
👉 Notícias via Whatsapp_Contábil: https://www.subscribepage.com/whatscontabil
👉 Canal no Telegram: https://t.me/contnews

Avaliem o Portal ContNews no Google!
Clique Aqui!

#ContNews #Contábil #Folha #Gestão #Fiscal #Inovação #Eventos

Portal ContNews

Portal ContNews

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts relacionados
Siga-nos no Instagram
Siga-nos
CAFÉ COM IR | 28/05

CAFÉ COM IR | 28/05

Atualize-se sobre as últimas novidades do Imposto de Renda Pessoa Física 2024 e tire suas dúvidas diretamente com os experts no assunto! Com Valter Koppe, conhecido como Doutor IR e Maurício de Luca, CEO da ConferIR. Assista na íntegra:...

Café com IR | 21/05

Café com IR | 21/05

Atualize-se sobre as últimas novidades do Imposto de Renda Pessoa Física 2024 e tire suas dúvidas diretamente com os experts no assunto! Com Valter Koppe, conhecido como Doutor IR e Maurício de Luca, CEO da ConferIR. Entre no Grupo Whatsapp CONTNEWS IRPF para ficar...

Café com IR | 14/05

Café com IR | 14/05

Devido os desastres recentes que ocorreram em diversas cidades do estado do Rio Grande do Sul, liberamos a isenção nas mensalidades do ConferIR, como forma de auxiliar na reestrutura dos escritórios contábeis e seus clientes. Estamos juntos nessa luta e faremos o...

Café com IR | 07/05

Café com IR | 07/05

Atualize-se sobre as últimas novidades do Imposto de Renda Pessoa Física 2024 e tire suas dúvidas diretamente com os experts no assunto! Com Valter Koppe, conhecido como Doutor IR e Maurício de Luca, CEO da ConferIR. Entre no Grupo Whatsapp CONTNEWS IRPF para ficar...

Café com IR 2024 | 30/04

Café com IR 2024 | 30/04

Atualize-se sobre as últimas novidades do Imposto de Renda Pessoa Física 2024 e tire suas dúvidas diretamente com os experts no assunto! Com Valter Koppe, conhecido como Doutor IR e Maurício de Luca, CEO da ConferIR. Entre no Grupo Whatsapp CONTNEWS IRPF para ficar...

Curso FGTS Digital | Turma 3 – Gravado

Curso FGTS Digital | Turma 3 – Gravado

Prepare-se para descobrir *As 5 Mudanças Mais Impactantes no DP com a Chegada do FGTS Digital* com os experts Jení Carla e João Paulo. As portas para o domínio completo do FGTS Digital estão abertas... mas não por muito tempo. ⏳ 🔹 Curso on-line, ao vivo e interativo🔹...

Aulão de Atualizações Trabalhistas e Previdenciárias

Aulão de Atualizações Trabalhistas e Previdenciárias

🔔🔔 Aulão de Atualizações Trabalhistas e Previdenciárias - GRAVADO 🔄 Fique por dentro de todas as atualizações do eSocial e seu ecossistema. Participe da retrospectiva 2023 e super preparação para 2024 com os maiores experts em DP do Brasil, Jení Carla Fritzke Schulter...

📖 eBook Como evitar a Malha Fina

📖 eBook Como evitar a Malha Fina

? eBook Como evitar a Malha Fina Declarações de IRPF retidas em malha da Receita Federal do Brasil deixam seus contribuintes sujeitos a penalidades, como multas, CPF bloqueado, emissão de passaporte proibida, entre outros. Em 2022, foram mais de um milhão de...

📖 eBook Como declarar PGBL e VGBL no IRPF 2023?

📖 eBook Como declarar PGBL e VGBL no IRPF 2023?

📖 eBook Como declarar PGBL e VGBL no IRPF 2023? O número de brasileiros que aderem a algum tipo de plano de previdência privada vem aumentando. Confira o ebook que traz tudo o que você precisa saber sobre as modalidades oferecidas no país e como declarar cada uma no...

📖 eBook Rendimentos Recebidos Acumuladamente na DIRPF 2023

📖 eBook Rendimentos Recebidos Acumuladamente na DIRPF 2023

Há tratamento tributário específico para situações em que rendimentos relativos a anos-calendário anteriores ao do recebimento, que deveriam ter sido pagos periodicamente, foram recebidos de uma única vez. Confira o ebook sobre o assunto com as atualizações para 2023!...