Артемий — автор блога ЭЙ АЙ ШИЗ
Блог Артемия

У вас начнётся ШИЗА

AI‑Agents, LLM, ML Inference и ночные сессии с vLLM. Пишу о технологиях, делюсь опытом и шизой.

Последние статьи

Смотреть все →
H-Neurons: Как учёные нашли 0.1% нейронов, из-за которых LLM врут 🫡 Новое
7 мин

H-Neurons: Как учёные нашли 0.1% нейронов, из-за которых LLM врут 🫡

Разбираю исследование H-Neurons из Университета Цинхуа — нейроны-галлюцинаторы в LLM, их связь с чрезмерной уступчивостью и почему корень проблемы в претрейне. Без воды, с шизой.

Читать далее
OpenClaw: Как WhatsApp-хак одного чувака порвал весь GitHub 🫡
12 мин

OpenClaw: Как WhatsApp-хак одного чувака порвал весь GitHub 🫡

Разобрал феномен OpenClaw — как личный WhatsApp-хак стал самым звёздным проектом в истории GitHub за 4 месяца. 250K+ звёзд, конфликт с Anthropic, найм в OpenAI и тёмная сторона хайпа. Без воды, с интерактивными графиками и шизой.

Читать далее
Инференс-движки для LLM: Как перестать гонять модели через transformers и начать жить 🫡
16 мин

Инференс-движки для LLM: Как перестать гонять модели через transformers и начать жить 🫡

Разбираю инференс-движки для LLM по полочкам — vLLM, SGLang, LMDeploy, Ollama, llama.cpp. Бенчмарки, установка, настройка. Без воды, с кодом и шизой.

Читать далее
Kimi K2.5: Как KimiClaw прогрел рынок на $10 лярд
6 мин

Kimi K2.5: Как KimiClaw прогрел рынок на $10 лярд

Разобрал Kimi K2.5 от Moonshot AI — 1T параметров MoE, рой из 100 агентов с 4.5× ускорением и KimiClaw, который за 20 дней сделал больше выручки чем весь 2025 год. Без воды, с шизой.

Читать далее
Qwen3.5: Китайцы сделали модель, которая рвёт GPT-5.2 🫡
9 мин

Qwen3.5: Китайцы сделали модель, которая рвёт GPT-5.2 🫡

Разбираю Qwen3.5 от Alibaba — 397B параметров, 17B активных, MoE, нативное зрение и 201 язык. Как 3B активных параметров побеждают 22B? Разбор с шизой.

Читать далее