1229 результов, страница #13
30 Aug, 2025 · кэш · @ai_storm/1370
https://t.me/ai_storm/1370 / 2025-08-30 06:01:43+00:00
Тут опять какая то мазута с загадкой для ChatGPT, на фоне этого ответ от DeepSeek, плюс вспомнили про перевернутый бокал. Мой ChatGPT умничка на все такие вопросы (про ботинки и про бокал) ответил все правильно
03 Sep, 2025 · кэш · @glavnygroup/1470
https://t.me/glavnygroup/1470 / 2025-09-03 14:31:57+00:00
Масштабы Еженедельно около миллиарда человек по всему миру используют генеративные ИИ-агенты вроде ChatGPT (700+ млн), Google Gemini (~100 млн) и DeepSeek (~50 млн). Графика: Мой Компьютер
30 Aug, 2025 · кэш · @midjourney_5/51
https://t.me/midjourney_5/51 / 2025-08-30 16:07:30+00:00
Исправлена работа FiftyChat Все существующие модели теперь вновь работают, + добавлены 2 новые модели: - Gemini 2.5 Flash Lite - DeepSeek V3.1 Помимо этого, GPT 4.1 Nano теперь временно доступна без рекламы
30 Aug, 2025 · кэш · @payzick/2291
https://t.me/payzick/2291 / 2025-08-30 16:07:35+00:00
Исправлена работа FiftyChat Все существующие модели теперь вновь работают, + добавлены 2 новые модели: - Gemini 2.5 Flash Lite - DeepSeek V3.1 Помимо этого, GPT 4.1 Nano теперь временно доступна без рекламы
30 Aug, 2025 · кэш · @payzick/2292
https://t.me/payzick/2292 / 2025-08-30 16:08:41+00:00
Исправлена работа FiftyChat Все существующие модели теперь вновь работают, + добавлены 2 новые модели: - Gemini 2.5 Flash Lite - DeepSeek V3.1 Помимо этого, GPT 4.1 Nano теперь временно доступна без рекламы
03 Sep, 2025 · кэш · @richiksoon/1824
https://t.me/richiksoon/1824 / 2025-09-03 19:00:47+00:00
Фотокарточки с хумком Deepseek Если ChatGPT - офисный сотрудник, то этот приятель мне видится как оператор колл-центра. Знаете такой, который работает там по приколу и самый новенький в коллективе 😜☎️
02 Sep, 2025 · кэш · @damir_rmanpo/232
https://t.me/damir_rmanpo/232 / 2025-09-02 09:25:44+00:00
"Редакция канала получает многочисленные просьбы" (с)) - перевести Европейские рекомендации по ведению беременных с сердечно-сосудистыми заболеваниями 2025. Это, конечно, неподъёмная задача. Но, современные технические средства (DeepSeek) позволяют сделать…
02 Sep, 2025 · кэш · @velena_d/1048
https://t.me/velena_d/1048 / 2025-09-02 17:29:06+00:00
Ps: За идею натягивания авгурея на глобус хрустальный шар, бетинг и чувство юмора благодарю Елену Velena. И отдельное спасибо китайским умельцам за DeepSeek Елену Velena https://t.me/Velena_d
02 Sep, 2025 · кэш · @zorki_view/223
https://t.me/zorki_view/223 / 2025-09-02 16:04:15+00:00
Ps: За идею натягивания авгурея на глобус хрустальный шар, бетинг и чувство юмора благодарю Елену Velena. И отдельное спасибо китайским умельцам за DeepSeek Елену Velena https://t.me/Velena_d
02 Sep, 2025 · кэш · @ai365ai/354
https://t.me/ai365ai/354 / 2025-09-02 19:03:10+00:00
Cogito V2 Preview Deepseek 671B — это одна из моделей искусственного интеллекта с архитектурой из 671 миллиардов параметров типа MoE (mixture-of-experts), разработанная компанией Deep Cogito. Эта модель сочетает в себе возможности гибридного рассуждения, позволяя работать как в режиме стандартной генерации текста, так и в режиме самоанализа и рассуждения, что улучшает качество и точность ответов. Основные особенности Cogito V2 Preview Deepseek 671B: - Модель относится к числу сильнейших открытых моделей в мире, сопоставима и даже превосходит по качеству последние версии DeepSeek (v3 и R1). - Использует технологию Iterated Distillation and Amplification (IDA), которая позволяет модели улучшать "интуицию" и внутренние политики рассуждения, что ведет к более коротким цепочкам рассуждений (на 60% короче, чем у DeepSeek R1). - Модель была обучена с акцентом на развитие интуиции выбора правильной траектории поиска решений и на оптимизацию процесса мышления, а не просто увеличение количества поисковых шагов. - Обладает высокой эффективностью обучения, затраты на тренинг всех моделей Cogito V2 (от 3 млрд до 671 млрд параметров) составили менее 3.5 млн долларов. - Модель доступна по открытой лицензии и может использоваться через API на платформах Together AI, Baseten, RunPod и локально через Unsloth. Поддерживает многоязычные возможности и имеет контекстную длину до 128 тысяч токенов. Таким образом, Cogito V2 Preview Deepseek 671B — это крупномасштабная передовая языковая модель со встроенными возможностями рассуждения и самоулучшения, предназначенная для достижения близости к суперинтеллекту и предназначенная для широкого коммерческого и исследовательского использования с открытым доступом к коду и моделям
1229 результов, страница #13