732 результа, страница #69
11 Sep, 2025 · кэш · @ai_exee/225
https://t.me/ai_exee/225 / 2025-09-11 17:33:17+00:00
Как я использую ИИ в работе над текстами Бершидский в отличной книге “Ремесло” писал, что у каждого текста есть три автора: первый придумывает идею, второй собирает информацию, а третий — красиво все это пишет. Большая редакция действительно может позволить себе такое разделение труда, а мне приходится отдуваться одному, пусть и с помощью ИИ. Рассказываю — как. Генерация идей С идеями проблемы бывают редко — на каждый крупный новостной повод мой мозг обычно выкидывает 2-3 варианта постов. Но творческие кризисы все-таки случаются, плюс полезно иногда получить “второе мнение” — тут на помощь приходит ИИ. Работа над каналом у меня сведена в отдельный проект в ChatGPT, где включена память по прошлым чатам. Поэтому отлично работает следующий промпт (не забываем переключиться на GPT-5 Thinking и подобрать нужный регион — память доступна не везде): Предложи 7 идей текстовых постов для моего телеграм-канала. Для каждой идеи дай несколько источников, с которых можно начать ее изучение. Если вы работаете с другим ИИ — то можно просто закинуть в чат 10-20 лучших текстов и попросить накидать идей. Большинство, конечно, будут ерундой, но парочку обычно получается развить. Когда я уже проработал какую-то большую тему вместе с ИИ, иногда срабатывает промпт, которым делился ранее: Дай свежий взгляд на то, что мы только что обсудили. И важное правило — на любую идею обязательно надо взглянуть критически, можно с помощью того же ИИ. Снова очень простой промпт: Беспристрастно оцени следующую идею: [описываем идею]. Для всех этих задач лучше использовать рассуждающие модели вроде GPT-5 Thinking, Grok 4, Gemini 2.5 Pro, DeepSeek со включенным DeepThink и т. п. Поиск информации Область, которую ИИ просто перевернул с ног на голову. Если раньше сбор информации для серьезного текста мог занимать до нескольких дней, то с ИИ я часто управляюсь за пару часов. Лучше всего для этого подходят GPT-5 Thinking и Grok 4. Оба умеют искать в несколько этапов: получил вопрос, собрал информацию, обработал, понял, чего не хватает — ищешь дальше. GPT-5 Thinking почти не галлюцинирует, а Grok 4 отлично ищет в X, площадке, где есть аккаунты у почти всех значимых специалистов в сфере ИИ. В отличие от поисковика, найденную информацию тут же можно обработать. Если тема сложная, просто напишите что-нибудь типа “перепиши последний ответ, чтобы было понятно неспециалисту”. Я же особенно ценю способность ИИ делать анализ и строить прогнозы. Простой пример: пару месяцев назад я увлекся такой темой, как использование ИИ для ускорения разработки лекарств. Результатом стал этот пост, но зачем останавливаться? Берем гипотезу, что ИИ в ближайшие десятилетия поможет открыть лекарства от большинства болезней (это, кстати, мнение главы Google DeepMind Демиса Хассабиса), просим смоделировать, как этот прорыв повлияет на общество, получаем материал на еще один пост. К тому же по инерции я набрал информации на пару постов о борьбе со старением (без ИИ в этой сфере тоже не обходится) — но вот никак не могу сесть и написать. Написание текста Я почти все тексты пишу сам — опыт позволяет делать это почти так же быстро, как ИИ, сохраняя стиль. Но если впадаю в ступор в середине текста, то просто закидываю его в чат с просьбой “предложи 3 варианта, как продолжить” — и иногда модель реально подсказывает, что делать дальше. А когда текст готов, сначала прошу проверить его на фактику и полноту, а затем — на грамматические и стилистические ошибки. Как редактор ИИ очень хорош. И кстати — я совершенно нормально отношусь к написанным с помощью ИИ текстам. У каждого своя экспертиза: если у человека нет опыта в создании легких и понятных текстов, но есть уникальные знания или какая-то интересная идея, то ИИ здесь станет отличным помощником. С русским языком отлично работают Gemini 2.5 Pro и Claude Sonnet 4, а вот если пользуетесь GPT-5, то план делайте в Thinking-режиме, а само написание отдавайте быстрой Instant-версии. этот пост https://t.me/ai_exee/162 еще один пост https://t.me/ai_exee/164
09 Sep, 2025 · кэш · @avayefamenin/17148
https://t.me/avayefamenin/17148 / 2025-09-09 12:08:39+00:00
مدل Qwen یک تریلیون پارامتری! ‏ایده برای بهتر کردن مدلت نداری؟! تعداد پارامترهات رو زیاد کن. ‏تیم Qwen وابسته به علی‌بابا به‌تازگی از Qwen3-Max-Preview (Instruct) رونمایی کرده؛ مدلی که با بیش از یک تریلیون پارامتر، عنوان بزرگ‌ترین و قدرتمندترین محصول این مجموعه رو گرفته. این مدل همین حالا از طریق Qwen Chat برای کاربران عادی و از راه Alibaba Cloud API برای توسعه‌دهنده‌ها و سازمان‌ها در دسترسه و با ویژگی‌هایی مثل پشتیبانی از کانتکست ۲۶۲ هزار توکنی و قابلیت «context cache»، هم ورودی‌های خیلی طولانی رو پردازش می‌کنه و هم سرعت و هزینه رو بهینه‌تر مدیریت می‌کنه. ‏مقایسه‌ی این مدل با نسخه‌ی قبلی یعنی Qwen3-235B-A22B-2507 و همچنین رقبایی مثل Kimi K2، Claude Opus 4 و DeepSeek-V3.1 نشون داده که Qwen3-Max-Preview در همه‌ی بنچمارک‌های مهم جلوتره. به‌ویژه در آزمون‌های سختی مثل AIME25 و Arena-Hard v2 اختلاف چشمگیری ایجاد کرده و توانسته بالاترین امتیاز رو ثبت کنه. حتی در معیارهای عمومی‌تر مثل SuperGPQA، LiveCodeBench v6 و LiveBench هم بالاتر از بقیه قرار گرفته. ‏این مدل اپن سورس نیست ولی می‌تونید از طریق لینک زیر ازش استفاده کنید ‏🔗 لینک Qwen Chat ‏‌ chat.qwen.ai⁩ #نسرا_فامنین ☑️با ما همراه باشید ... ┄┅┅❅💠❅┅┅┄ ✍پایگاه خبری تحلیلی #آوای_فامنین 🆔 @avayefamenin chat.qwen.ai http://chat.qwen.ai/ #نسرا_فامنین ?q=%23%D9%86%D8%B3%D8%B1%D8%A7_%D9%81%D8%A7%D9%85%D9%86%DB%8C%D9%86 #آوای_فامنین ?q=%23%D8%A2%D9%88%D8%A7%DB%8C_%D9%81%D8%A7%D9%85%D9%86%DB%8C%D9%86 @avayefamenin https://t.me/avayefamenin
10 Sep, 2025 · кэш · @techwizardch/2223
https://t.me/techwizardch/2223 / 2025-09-10 13:03:23+00:00
از تحویل غذا تا هوش مصنوعی: Meituan مدل LongCat-Flash-Chat رو منتشر کرد 🚀 شرکت Meituan، که بیشتر برای تحویل غذا شناخته شده، حالا LongCat-Flash-Chat رو منتشر کرده: longcat.chat — یک LLM متن‌باز با پارامترهای 560B: HuggingFace برای هر توکن فقط ۱۸–۳۱B پارامتر فعال می‌شه، که باعث می‌شه سریع و کارآمد باشه، با سرعت بیش از ۱۰۰ توکن در ثانیه ⚡️ ویژگی‌های اصلی: 🔴 طراحی دینامیک MoE برای افزایش کارایی 🔴 وظایف سریع در سبک عامل با پهنای باند بالا 🔴 متن‌باز با مجوز MIT روی GitHub و HF 🔴 عملکرد رقابتی با DeepSeek، Qwen3 و Gemini Flash بفرست برا دوستات تا خانوادمون بزرگ تر بشه🩵 Group AI🤖 Channel🏦 youtube🎟 green-backgraund🛣 discord👾 #Meituan #LongCatFlashChat #LLM #AItools #ИИ #OpenSource #نسلZ #هوش_مصنوعی #تکنولوژی #новости longcat.chat http://longcat.chat/ Group AI https://t.me/techwizardgp/1777 Channel https://t.me/techwizardch youtube https://youtube.com/@techwizardch?si=SJ4n4Nr9s0Hv-sX6 green-backgraund https://t.me/Green_background_2024 discord https://discord.gg/sMFbCyKF #Meituan ?q=%23Meituan #LongCatFlashChat ?q=%23LongCatFlashChat #LLM ?q=%23LLM #AItools ?q=%23AItools #ИИ ?q=%23%D0%98%D0%98 #OpenSource ?q=%23OpenSource #نسلZ ?q=%23%D9%86%D8%B3%D9%84Z #هوش_مصنوعی ?q=%23%D9%87%D9%88%D8%B4_%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C #تکنولوژی ?q=%23%D8%AA%DA%A9%D9%86%D9%88%D9%84%D9%88%DA%98%DB%8C #новости ?q=%23%D0%BD%D0%BE%D0%B2%D0%BE%D1%81%D1%82%D0%B8
10 Sep, 2025 · кэш · @chunse1024/7451
https://t.me/chunse1024/7451 / 2025-09-10 13:00:25+00:00
刚发现一个神器,陪读蛙让浏览器学外语效率爆表!边看网页边学英语太爽了 Read Frog是一个开源的AI驱动语言学习浏览器扩展,支持沉浸式翻译和智能词汇解释。最爽的是能根据你的语言水平提供个性化学习内容! 以下是使用教程👇 🔗项目地址:https://github.com/mengxi-ream/read-frog 配套工具推荐:Chrome浏览器、OpenAI API、DeepSeek API 【使用价值】 对于语言学习者来说,这个工具能够: • 将日常浏览网页变成自然的语言学习过程 • 根据用户语言水平提供精准的词汇和语法解释 • 支持多种AI模型,提供高质量的翻译和学习内容 对于语言学习者来说,这就是个完美学习伴侣。2.4K星标认证,开源免费安心使用! 收藏了准没错 ⭐ https://github.com/mengxi-ream/read-frog https://github.com/mengxi-ream/read-frog
10 Sep, 2025 · кэш · @hrmother/1119
https://t.me/hrmother/1119 / 2025-09-10 15:32:59+00:00
Про кентавров и когнитивный фитнес Сегодня побывала на классном бизнес-завтраке для HR-директоров, посвященном искусственному интеллекту. Спикером был Андрей Комиссаров — настоящий гуру в этой области, проректор Университета «Синергия», экс-директор по digital Сбера, работавший ранее в NVIDIA и стоявший у истоков Национальной технологической инициативы (НТИ). Вот моя подборка самых ярких инсайтов: 1. «Большая языковая модель — это не энциклопедия, а продавец пазлов, который каждый раз заново создает картинку из кучи коробок». ИИ не ищет ответ в базе знаний, он его генерирует. А значит, может уверенно ошибаться («галлюцинировать»). Мы не можем доверять ИИ проверку фактов или работу с конфиденциальными данными без строгого контроля. Его сила — в генерации идей, черновиков и обработки массивов информации, а не в выдаче истины в последней инстанции. 2. «Главная цель внедрения ИИ — повышение плотности человеческого часа» Речь идет о том, чтобы освободить сотрудников от рутины и позволить им делать гораздо больше за то же время. Автоматизация отчетов, анализ резюме, подготовка шаблонов документов и генерация образовательного контента. Например, с помощью DeepSeek или GigaChat можно моментально транскрибировать совещания и делать их конспекты (помним про персональные данные и конфиденциальную информацию!). 3. «Мы входим в эпоху кентавров — симбиоза человека и ИИ» Не человек против машины, а человек в паре с машиной. Молодежь уже рождается с этим навыком, а наша задача — обучить ему опытные кадры. Для этого нужно создавать не просто доступ к ChatGPT, а кастомизированные инструменты под конкретные задачи каждого отдела. Например, в «Синергии» сделали единый чат (Synergy AI Chat) с библиотекой промптов для маркетологов, методистов и других специалистов. В Южной Корее уже есть примеры Советов директоров, где несколько членов — это AI-ассистенты, обученные на разных массивах данных, а несколько членов — живые люди. 4. «ИИ начинает уставать и отвечать хуже после 7-8 вопроса, потому что его так тренировали: тестировщики ставили лайки только на первые ответы». ИИ учится на человеческом поведении и перенимает наши недостатки: лень, алчность, усталость. Это создает риски и для корпоративной культуры. 5. Активное использование ИИ без критического осмысления приводит к "эффекту космонавта", у которых со временем атрофируются некоторые мышцы. Требуется "когнитивный фитнес". Мы должны помнить,что делегируя задачи ИИ, меньше задействуются лобные доли головного мозга. Программы обучения и развития нужно включать «когнитивный фитнес» — тренировки для ума, задачи на критическое мышление и креативность, которые не позволят нашим «ментальным мышцам» атрофироваться. Что можно внедрять и пробовать: · Тестирование инструментов для анализа внутренних коммуникаций (например, https://dev.chat-analyzer.datasea.me/), чтобы оценивать вовлеченность и токсичность в чатах и выявлять неформальных лидеров. · Повышение точности ответов нейросетей за счет таких технологий, как RAG (Retrieval-Augmented Generation), Knowledge Graph (например, для работы с базой знаний компании) или Internet cross-referencing. · Эксперименты с цифровыми аватарами (например, в HeyGen) для быстрого создания обучающего видео-контента. · Подготовка шаблонов презентаций в Napkin (только с компьютера, не с телефона) или в других нейросетях для презентаций. · Использование ИИ для генерации идей, создания цифровых профилей компетенций, созадния видео, краткого пересказа, проверки на использование ИИ, дизайна образовательного опыта. · Анализ речи с помощью ИИ (высокая водность — много "воды", тошнотность — повторы, высокая сложность, хезитации - ээээ..., эмоциональный отклик). Главный вывод: будущее не за тем, кто заменит людей ИИ, а за тем, кто сможет построить эффективный тандем между ними. Компании, которые не будут массово внедрять ИИ в ближайшие 1-2 года, рискуют стать неконкурентоспособными. P.S. У Андрея Комиссарова пять детей, его старший сын Иван тоже развивает свой бизнес по когнитивному фитнесу под названием "Skilling me softly" 😊. https://dev.chat-analyzer.datasea.me/ https://dev.chat-analyzer.datasea.me/ Napkin https://app.napkin.ai/signin других нейросетях для презентаций. https://okocrm.com/blog/nejroseti-dlya-prezentacij/?ysclid=lgdhd5bmhx950145878 генерации идей https://whimsical.com/ цифровых профилей https://t.me/LXD_education/739?single видео https://openai.com/sora/ краткого пересказа https://300.ya.ru/ использование ИИ https://www.zerogpt.com/ образовательного опыта. https://t.me/LXD_education/1326
12 Sep, 2025 · кэш · @ai_for_i/2151
https://t.me/ai_for_i/2151 / 2025-09-12 02:45:06+00:00
📌 چرا مدل‌های زبانی دچار توهم یا هالوسینیشن می‌شوند؟ شرکت OpenAI پژوهشی منتشر کرده درباره دلایل هالوسینیشن در مدل‌های زبانی بزرگ (LLM). هالوسینیشن یک خطای مرموز در «آگاهی» هوش مصنوعی نیست، بلکه پیامدی قابل پیش‌بینی از فرآیند آموزش آن است. تصور کنید وظیفه مدل، یک دسته‌بندی دوتایی باشد: تشخیص اینکه یک گزاره درست است یا نادرست. محاسبات ریاضی این پژوهش ساده است: نرخ خطا در تولید (generation) دست‌کم دو برابر نرخ خطا در دسته‌بندی است. اگر مدلی نتواند با اطمینان واقعیت را از خیال جدا کند، ناگزیر خیال را تولید خواهد کرد. --- 🟡 همه‌چیز از مرحله پیش‌آموزش (pre-train) آغاز می‌شود. حتی روی داده‌های کاملاً پاک هم اهداف آماری آموزش، مدل را به تولید خطا سوق می‌دهد. این مسئله بیشتر در مورد حقایقی رخ می‌دهد که در داده آموزشی به‌ندرت دیده شده‌اند. در مقاله مفهومی معرفی می‌شود به نام singleton rate — یعنی سهم حقایقی که فقط یک بار در داده ظاهر شده‌اند. محاسبات نظری نشان می‌دهد نرخ هالوسینیشن مدل دست‌کم برابر با همین سهم خواهد بود. به بیان ساده، اگر ۲۰٪ اطلاعات مربوط به تاریخ تولد افراد فقط یک بار در داده‌ها آمده باشد، مدل در دست‌کم ۲۰٪ موارد تاریخ تولد را نادرست می‌سازد. --- 🟡 آزمایش‌ها این موضوع را تأیید می‌کنند. به نظر می‌رسد نتایج گزارش شده با هدف زیر سوال بردن عملکرد مدل‌های شرکت‌های رقیب تدوین شده است. مدل DeepSeek-V3 وقتی تاریخ تولد یکی از نویسندگان مقاله را پرسیدند، سه بار تاریخ‌های اشتباه داد: ۰۳-۰۷، ۱۵-۰۶ و ۰۱-۰۱. هیچ‌کدام حتی نزدیک به تاریخ درست (که در پاییز بود) نبودند. در آزمایش دیگری که باید تعداد حروف D در واژه DEEPSEEK شمرده می‌شد، همین مدل جواب ۲ یا ۳ داد، در حالی که مدل‌های شرکت متا و Claude 3.7 Sonnet حتی ۶ و ۷ اعلام کردند! با این حال، مدل‌های پایه پس از پیش‌آموزش اغلب کالیبراسیون بسیار خوبی دارند. مثلاً خطای کالیبراسیون پیش‌بینی‌شده در GPT-4 تنها ۰.۰۰۷ بود که نشان از سازگاری آماری بالای پیش‌بینی‌های آن دارد (که البته چندان عجیب نیست). --- 🟡 چرا هالوسینیشن بعد از پس‌آموزش (post-training) و RLHF از بین نمی‌رود؟ پاسخ در شیوه ارزیابی نهفته است. بیشتر بنچمارک‌های امروزی مدل‌ها را به «حدس زدن» تشویق می‌کنند. شرایط شبیه یک امتحان است: برای پاسخ درست یک امتیاز می‌دهند، اما برای برگه سفید یا جواب «نمی‌دانم» صفر. پس راهبرد بهینه در حالت عدم اطمینان، حدس زدن است؛ هر احتمال اندک برای درست بودن بهتر از صفر قطعی است. تحلیل بنچمارک‌های معروف هم این فرضیه را تأیید کرده است. ❇️در GPQA، MMLU-Pro، Omni-MATH، SWE-bench و HLE سیستم ارزیابی کاملاً دوحالته (درست/غلط) است. هیچ امتیاز جزئی برای «نمی‌دانم» وجود ندارد. از میان ۱۰ بنچمارک بررسی‌شده، فقط WildBench به پاسخ «نمی‌دانم» امتیاز جزئی می‌دهد. بقیه در واقع مدل را بابت اجتناب از هالوسینیشن جریمه می‌کنند و همین باعث «اپیدمی حدس‌های دروغین» می‌شود. --- 🟡 راهکار برای مهندسان شرکت OpenAI پیشنهاد می‌کند: ✅تعریف سطح اطمینان مشخص در معیارهای ارزیابی، ✅افزودن کالیبراسیون رفتاری، ✅سنجش مدل‌ها در بخش‌هایی با آستانه‌های متفاوت اطمینان، ✅پایش singleton rate روی داده‌ها، ✅اندازه‌گیری احتمال برای پاسخ‌های مهم، ✅ترکیب RAG با تأیید حقایق، ✅و بازنگری در جدول‌های رتبه‌بندی (leaderboards) تا پاسخ «نمی‌دانم» به‌طور خودکار جریمه نشود. --- 🔗 متن کامل مقاله... https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf
09 Sep, 2025 · кэш · @haren2024/24174
https://t.me/haren2024/24174 / 2025-09-09 10:10:18+00:00
从零开始构建 AI Agent 应用,需要处理复杂的配置、工具集成和性能优化,开发门槛相当高。 腾讯开源了一个 Youtu-Agent 框架,帮助我们简化了这个开发过程,使用开源模型就轻松构建出强大的 Agent 应用。 基于 openai-agents 构建,通过 YAML 配置和自动化生成大幅降低开发复杂度,并且在基准测试中取得不错的成绩。 GitHub:https://github.com/TencentCloudADP/youtu-agent 主要特性: - 在 WebWalkerQA 达到 71.47% 准确率,GAIA 基准达到 72.8% 通过率 - 支持数据分析、文件处理、深度研究等实用场景 - YAML 配置驱动,可自动生成智能体配置文件 - 完全异步架构,支持高性能并发执行 - 内置丰富工具包和可视化追踪系统 - 兼容多种模型 API,从 DeepSeek 到 gpt-oss 都支持 通过 Docker 一键部署或源码安装即可快速上手,适合想用开源模型构建智能体应用的开发者。 https://github.com/TencentCloudADP/youtu-agent https://github.com/TencentCloudADP/youtu-agent
11 Sep, 2025 · кэш · @ai_amozgar/734
https://t.me/ai_amozgar/734 / 2025-09-11 05:32:04+00:00
🚀 رونمایی از مدل هوش مصنوعی K2 Think در امارات ⚡️ ۷ سپتامبر دانشگاه محمد بن زاید با همکاری شرکت G42 از مدل جدیدی به نام K2 Think رونمایی کرد؛ مدلی که با وجود تنها ۳۲ میلیارد پارامتر، عملکردی در حد و اندازه غول‌هایی مثل OpenAI و DeepSeek داره و حتی توی بعضی حوزه‌ها بهتر هم عمل کرده! 🔹 چرا K2 Think خاصه؟ 🔸 حجم خیلی کمتر نسبت به مدل‌های سنگین (مثل R1 با ۶۷۱ میلیارد پارامتر) 🔸 نتایج عالی در بنچمارک‌های سخت مثل AIME24، HMMT25، LiveCodeBenchv5 و GPQA-Diamond 🔸 عملکرد قدرتمند در ریاضیات، کدنویسی و علوم 🔹 پشت صحنه توسعه 🔸 ساخته‌شده بر پایه Qwen 2.5 (مدل متن‌باز علی‌بابا) 🔸 آموزش با استفاده از سخت‌افزارهای Cerebras (نه Nvidia!) 🔸کاملاً متن‌باز → داده‌ها، کد آموزش و ابزارها برای همه آزاد 📌 جالبه بدونید این مدل ۷ سپتامبر ۲۰۲۵ همزمان با سالروز تولد شیخ خلیفه بن زاید رونمایی شد و نشون می‌ده امارات با قدرت داره وارد عرصه جهانی هوش مصنوعی می‌شه. 🌐 لینک آزمایش مدل: 🔗 ‌سایت رسمی K2 Think 📲 آموزش کاربردی‌ هوش مصنوعی در آی‌آموزگار: 👈 تلگرام 👈 یوتیوب 👈 اینستاگرام #آموزش_چهارصد_و_پنج #هوش_مصنوعی #K2Think #امارات #AI ‌سایت رسمی K2 Think https://www.k2think.ai/ تلگرام https://t.me/Ai_Amozgar یوتیوب https://youtube.com/@Ai_Amozgar اینستاگرام https://instagram.com/Ai_Amozgar #آموزش_چهارصد_و_پنج ?q=%23%D8%A2%D9%85%D9%88%D8%B2%D8%B4_%DA%86%D9%87%D8%A7%D8%B1%D8%B5%D8%AF_%D9%88_%D9%BE%D9%86%D8%AC #هوش_مصنوعی ?q=%23%D9%87%D9%88%D8%B4_%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C #K2Think ?q=%23K2Think #امارات ?q=%23%D8%A7%D9%85%D8%A7%D8%B1%D8%A7%D8%AA #AI ?q=%23AI
11 Sep, 2025 · кэш · @xinxianshi/36907
https://t.me/xinxianshi/36907 / 2025-09-11 12:39:08+00:00
清大教授称应放弃英伟达转而发展自主技术 北京清华大学教授魏少军在新加坡的一个论坛上表示,中国应该开发不依赖英伟达推广的加速器类型的芯片来创建AI,并警告说亚洲企业尤其可能受制于美国技术。他称,包括中国在内的亚洲国家应该减少对当前全球范围内用于训练从ChatGPT到DeepSeek等平台的通用图形处理单元的依赖。“很遗憾看到我们亚洲包括中国在开发算法和大模型方面都在模仿美国,”魏少军说。他还补充道,继续沿着这条道路走下去可能对该地区是致命的。魏少军还补充说,中国应该专注于创造专为大模型开发设计的新型芯片,而不是继续依赖最初为游戏和工业图形提供支持的架构,但未详细说明这种新蓝图的具体形态。 —— 彭博社 彭博社 https://www.bloomberg.com/news/articles/2025-09-11/top-beijing-adviser-says-china-should-ditch-nvidia-for-own-tech
13 Sep, 2025 · кэш · @aitrendchannel/1565
https://t.me/aitrendchannel/1565 / 2025-09-13 12:48:19+00:00
📊 Gartner представив дослідження про стан проникнення AI в ІТ та прогнози до 2030 року. 🔹 У 2024 році з використанням AI працювало лише 19% бізнес-процесів (у термінах робочих місць). 🔹 До 2030 року очікується, що 75% процесів в ІТ виконуватимуть люди, «підсилені AI». 💡 Важливі висновки: 65% інвестицій в AI у ІТ-відділах не окупається — мова здебільшого про корпоративні підписки на чати. Реальний ROI приносять AI-агенти, і світовий бюджет на їхнє впровадження найближчим часом досягне 10% усіх витрат на ІТ. Gartner не прогнозує масового безробіття: роботу втратять лише ті, хто не зможе підтвердити володіння AI-інструментами на професійному рівні. 🏢 Цікаво, що Gartner не вважає OpenAI, Meta, Anthropic, DeepSeek чи xAI зрілими вендорами для enterprise-сектору. Надійними для корпорацій визнані Google, Microsoft, Amazon та Alibaba. Фактично, тільки Gemini та Qwen досягли «корпоративної якості». OpenAI же сприймається як ненадійний для бізнесу — хіба що через інтеграцію з Microsoft. #Gartner #AI #ШтучнийІнтелект #IT #Інновації #Агенти #EnterpriseAI #DigitalTransformation https://www.theregister.com/2025/09/08/ai_impact_it_departments/ #Gartner ?q=%23Gartner #AI ?q=%23AI #ШтучнийІнтелект ?q=%23%D0%A8%D1%82%D1%83%D1%87%D0%BD%D0%B8%D0%B9%D0%86%D0%BD%D1%82%D0%B5%D0%BB%D0%B5%D0%BA%D1%82 #IT ?q=%23IT #Інновації ?q=%23%D0%86%D0%BD%D0%BD%D0%BE%D0%B2%D0%B0%D1%86%D1%96%D1%97 #Агенти ?q=%23%D0%90%D0%B3%D0%B5%D0%BD%D1%82%D0%B8 #EnterpriseAI ?q=%23EnterpriseAI #DigitalTransformation ?q=%23DigitalTransformation https://www.theregister.com/2025/09/08/ai_impact_it_departments/ https://www.theregister.com/2025/09/08/ai_impact_it_departments/ : Analyst firm doesn’t rate OpenAI as an enterprise-ready vendor All IT work to involve AI by 2030, says Gartner, but jobs are safe
732 результа, страница #69