2005 результов, страница #12
29 Apr, 2025 · кэш · @vsezneefam/6810
https://t.me/vsezneefam/6810 / 2025-04-29 17:10:38+00:00
«таро - это deepseek со вселенной»
03 May, 2025 · кэш · @crypto_antonio/9987
https://t.me/crypto_antonio/9987 / 2025-05-03 22:55:40+00:00
Сравнительный обзор трех ТОП моделей ИИ https://medium.com/@cognidownunder/the-open-source-rebellion-llama-4-behemoth-vs-deepseek-r1-vs-qwen-2-5-max-39cb078ac437 #ai #llama #deepseek #qwen https://medium.com/@cognidownunder/the-open-source-rebellion-llama-4-behemoth-vs-deepseek-r1-vs-qwen-2-5-max-39cb078ac437 https://medium.com/@cognidownunder/the-open-source-rebellion-llama-4-behemoth-vs-deepseek-r1-vs-qwen-2-5-max-39cb078ac437 #ai ?q=%23ai #llama ?q=%23llama #deepseek ?q=%23deepseek #qwen ?q=%23qwen The AI model landscape has reached a fascinating inflection point in 2025. While OpenAI, Anthropic, and Google continue to grab headlines… The Open-Source Rebellion: Llama 4 Behemoth vs. DeepSeek R1 vs. Qwen 2.5 Max
https://t.me/data_visualization_bds/978 / 2025-04-28 17:24:01+00:00
"DeepSeek-V3 Takes the Lead! 🚀📊" AI benchmark showdown! DeepSeek-V3 dominates across multiple categories, hitting 90.2% on MATH 500 and 51.6% on Codeforces. 🏆 How do other models compare? 📌 Key Highlights: 🔹 MMLU-Pro: 75.9% (DeepSeek-V3) vs. 78% (GPT-4o) 🔹 AIME 2024: DeepSeek-V3 leads with 39.2%, outperforming Llama and GPT-4o! 🔹 SWE-bench: Claude-3.5 slightly edges out at 50.8%, but DeepSeek-V3 remains strong. 👉 Which model impresses you the most? Drop your thoughts below! 💬
30 Apr, 2025 · кэш · @ngi_ru/270
https://t.me/ngi_ru/270 / 2025-04-30 19:03:02+00:00
DeepSeek выпустили новую модель с фокусом на математике и логике разбираем что за зверь С утра на HuggingFace появилась новая моделька от китайцев. Пока все ждали R2, в свет вышла модель DeepSeek Prover V2. Что это за модель и почему раньше о ней не говорили? Как можно видеть из названия, это вторая версия модели, а не говорили о них лишь потому, что до R1 за DeepSeek следили только гики. Моделька предназначена для решения логических и математических задач на языке формальных доказательств Lean 4. В целом, сфера формальной логики у LLM сейчас довольно сильно страдает, и цель этой модели – как раз исправить это. Модельку специально тренировали на имитацию процесса рассуждения, но без традиционных сворачиваемых “мыслей”, которые мы видим у других моделей. Попробуйте дать ей задачку на логику - поймете, о чем я. Как они этого добились? Если коротко, то применили хитрый подход: 1. Разбивка и синтез: Использовали DeepSeek-V3, чтобы та разложила сложные теоремы на шаги и сгенерировала "черновики" доказательств, соединяя неформальные рассуждения с формальным кодом. 2. Оптимизация: Для решения подзадач использовали модель поменьше (7B), чтобы сэкономить ресурсы. 3. Дообучение: Полученную модель-прувер докрутили с помощью обучения с подкреплением (RL), поощряя за верные формальные шаги. Идея в том, чтобы научить модель не просто генерировать текст, похожий на математический, а именно строить формальные доказательства, связывая их с логикой рассуждения. Результаты и бенчмарк Флагманская 671B модель показала себя очень неплохо: 88.9% успеха на стандартном тесте MiniF2F и решила почти полсотни задач из сложного университетского PutnamBench. Чтобы лучше тестировать такие модели, DeepSeek даже создали свой бенчмарк – ProverBench, куда включили задачи с реальных олимпиад (AIME) и из учебников. Это важно для оценки на разнообразных и практически значимых примерах. Доступные модели Выпустили две версии: DeepSeek-Prover-V2-7B: Младшая, с увеличенным до 32K токенов контекстом. DeepSeek-Prover-V2-671B: Старшая, на базе новейшей DeepSeek-V3, показывающая топовые результаты. Что в итоге? Появление DeepSeek Prover V2 – интересный шаг к тому, чтобы LLM стали лучше справляться с логикой и математикой. Их подход к обучению, имитирующий процесс доказательства, выглядит многообещающе. Но есть и свои минусы, например, нам уже известно, что RL часто ведет к тому, что модели ВРУТ, что показали нам OpenAI. + я немного потыкал модель, с моими задачками на логику она не справилась 🙂 Модель доступна на OpenRouter HuggingFace https://huggingface.co/deepseek-ai/DeepSeek-Prover-V2-671B поменьше (7B) https://huggingface.co/deepseek-ai/DeepSeek-Prover-V2-7B OpenRouter https://openrouter.ai/deepseek/deepseek-prover-v2:free We’re on a journey to advance and democratize artificial intelligence through open source and open science. deepseek-ai/DeepSeek-Prover-V2-671B · Hugging Face
01 May, 2025 · кэш · @nemaindrakon/389
https://t.me/nemaindrakon/389 / 2025-05-01 13:21:27+00:00
Ролик будет на след. неделе. А DeepSeek лицемерная мразь
01 May, 2025 · кэш · @maindrakon/443
https://t.me/maindrakon/443 / 2025-05-01 09:38:29+00:00
Ролик будет на след. неделе. А DeepSeek лицемерная мразь
03 May, 2025 · кэш · @mandeathandethics/8778
https://t.me/mandeathandethics/8778 / 2025-05-03 15:40:36+00:00
перевел на русский (deepseek и яндекс.трнаслейт) со своими комментариями
DeepSeek R1 AI: 25 Real World Projects in AI for Beginners https://tinyurl.com/2chf6le7 https://tinyurl.com/2chf6le7 https://tinyurl.com/2chf6le7 Hands-On AI Development with DeepSeek: Build 25 Real-World NLP and Automation Projects from Scratch! DeepSeek R1 AI: 25 Real World Projects in AI for Beginners - Free Online Courses with Certificates
28 Apr, 2025 · кэш · @ai_tools_hub/543
https://t.me/ai_tools_hub/543 / 2025-04-28 10:17:41+00:00
https://www.cnbc.com/2025/04/24/south-korea-says-deepseek-transferred-user-data-to-china-us-without-consent.html https://www.cnbc.com/2025/04/24/south-korea-says-deepseek-transferred-user-data-to-china-us-without-consent.html https://www.cnbc.com/2025/04/24/south-korea-says-deepseek-transferred-user-data-to-china-us-without-consent.html South Korea's data protection authority has accused Chinese AI startup DeepSeek of transferring the personal information of users without permission. South Korea says DeepSeek transferred user data to China and the U.S. without consent
29 Apr, 2025 · кэш · @bis2024/771
https://t.me/bis2024/771 / 2025-04-29 05:44:32+00:00
https://overclockers.ru/blog/Global_Chronicles/show/221284/V-seti-nachinajut-cirkulirovat-sluhi-o-vyhoda-DeepSeek-R2 https://overclockers.ru/blog/Global_Chronicles/show/221284/V-seti-nachinajut-cirkulirovat-sluhi-o-vyhoda-DeepSeek-R2 https://overclockers.ru/blog/Global_Chronicles/show/221284/V-seti-nachinajut-cirkulirovat-sluhi-o-vyhoda-DeepSeek-R2 В сети появились данные о новой модели DeepSeek R2, которая может быть на 97% дешевле GPT-4. Модель полностью обучали на китайских чипах Huawei Ascend. Overclockers.ru: В китайских отраслевых источниках начинают циркулировать слухи о выходе DeepSeek R2
2005 результов, страница #12