Мир неожиданных фактов: от клубники до зебр | 10 февраля 2025 года, 22:11

Век живи — век учись.

Клубника, земляника — это не ягоды, а орехи. Вернее, не сами плоды, а семечки, а мякоть — это цветоложе. Картофель — это двугнездая ягода. Груша — это яблоко. Черешня, слива, абрикос, персик — костянки. Разделяются однокостянка (например, вишня, слива, персик, кокос) и многокостянка (например, малина, ежевика, морошка). Бананы — это ягоды. Ананас — трава. Арбуз — ягода (тыквина). Миндаль — не орех, а сухой плод. Семена яблок, косточки вишни, абрикоса, персика или сливы содержат цианиды (амигдалин в них превращается). Как и в миндале. В шоколаде есть теобромин — пару плиток шоколада для собаки смерть или около того, половинка — точно свалит с ног. Ваниль делают из мексиканской орхидеи-лианы, а вот ванилин, искусственный заменитель ванили, является побочным продуктом целлюлозно-бумажной промышленности.

Такого вида как пантера не существует. Пантерами называют «в народе» черных ягуаров или леопардов. У черных пантер тоже есть пятна, просто они хуже видны. У белых медведей черная кожа и прозрачный мех. А белые они потому же, почему облака белые. У дятлов язык раза в четыре длиннее клюва, поэтому он обвит вокруг черепа и может вытягиваться. Язык европейского зелёного дятла спускается в горло, тянется через заднюю часть шеи, вокруг задней части черепа под кожей, по темени между глазами, заканчивается обычно прямо под глазницей. У некоторых дятлов язык выходит из черепа между глазами и входит в клюв через одну из ноздрей.

А у муравьеда язык прикреплён к грудине, между ключиц. Слоны – единственные животные, у которых четыре полноценных коленных сустава. Коалы имеют отпечатки пальцев, которые почти неотличимы от человеческих. У акул нет костей. Из ближайшие родственники — скаты. Крокодилы могут не есть целый год (но грустят). Зебры чёрные с белыми полосами, а не наоборот (белые появляются на чёрной коже). 1% людей имеет шейные рёбра. Кальмары, каракатицы осьминоги могут редактировать свою РНК «на лету».

Оказывается, Рене Декарт для России придумал декартову систему координат, а для всего остального мира — картезианскую. Потому что имя Декарта — Descartes, то есть Des Cartes, соответственно — Cartesian.

Мозг и большие языковые модели: Путеводитель по предсказательной обработке | 09 февраля 2025 года, 21:39

Я тут подумал, что понимание, как работают большие языковые модели (LLM; типа ChatGPT) объясняет как вероятно работает наш (по крайней мере мой) мозг и наоборот, наблюдение за тем, как работает мозг, может дать лучшее понимание, как тренировать LLM.

Ну вы знаете, что в основе LLM лежит простая логика — подбор подходящего следующего слова после N известных, образующих «контекст». Для этого LLM обучают на гигатском корпусе текстов, чтобы показать, какие слова идут ОБЫЧНО после каких в каком контексте.

Так вот когда изучаешь любой английский язык, по сути, этот этап тоже неизбежен. Нужно сталкиваться с потоком слов в любом виде — письменном или устном, чтобы мозг обнаружил и усвоил закономерности просто через наблюдение или слушание (а лучше и то, и то — мультимодальность).

В LLM за единицу берутся вообще не слова, а токены — слова и часто части слов. После обработки этого огромного корпуса текстов оказалось несложным найти просто наиболее частые последовательности, которые конечно оказались где-то словами, а где-то частями слов. Так вот, когда начинаешь говорить что-то на иностранном языке, особенно с системой окончаний, начинаешь произносить начало слова, и мозг в этот момент кипит над «вычислением» окончания.

Когда мы читаем текст или слушаем, мы на самом деле не разбираем слова по буквам, потому что очень часто там просто пропадают важные куски из-за быстрой или невнятной речи, опечаток. Но мозгу вообще не надо перебирать все слова, выглядящие или звучащее как данное, ему нужно понять, совпадает ли что услышано или увидено с очень ограниченным набором слов, которые в принципе могут стоять после предыдущего слова.

Отдельная история с целыми фразами. В нашем мозгу они образуют единый «токен». То есть, не разбиваются по отдельным словам, если специально об этом не думать. И такие токены тоже идут в потоке не случайно — мозг их ожидает, и как только слышит или видит знаки, что фраза появилась, дальше круг вариантов сужается до буквально 1-2 возможных фраз с таким началом и все, какая-то одна из них является тем, что и сказано или написано.

Но самое интересное, что недавнее исследование показало: человеческий мозг действительно работает очень похоже на LLM. В работе «The neural architecture of language: Integrative modeling converges on predictive processing» ученые MIT показали, что модели, которые лучше предсказывают следующее слово, также точнее моделируют активность мозга при обработке языка. То есть механизм, используемый в современных нейросетях, не просто вдохновлен когнитивными процессами, а реально отражает их.

В эксперименте анализировались данные fMRI и электрокортикографии (ECoG) во время восприятия языка. Исследователи обнаружили, что лучшая на тот момент предсказательная модель (GPT-2 XL) могла объяснять почти 100% объяснимой вариации нейронных ответов. Это значит, что процесс понимания языка у людей действительно строится на предсказательной обработке, а не на последовательном анализе слов и грамматических конструкций. Более того, именно задача предсказания следующего слова оказалась ключевой — модели, обученные на других языковых задачах (например, грамматическом анализе), хуже предсказывали мозговую активность.

Если это правда, то ключ к fluent чтению и говорению на иностранном языке — это именно тренировка предсказательной обработки. Чем больше мозг сталкивается с потоком естественного языка (как письменного, так и устного), тем лучше он может формировать ожидания о следующем слове или фразе. Это также объясняет, почему носители языка не замечают грамматических ошибок или не всегда могут объяснить правила — их мозг не анализирует отдельные элементы, а предсказывает целые паттерны речи.

Получается, если хочется говорить свободно, нужно не просто учить правила, а буквально погружать мозг в поток языка — слушать, читать, говорить, чтобы нейросеть в голове натренировалась предсказывать слова и структуры так же, как это делает GPT.

При этом, есть гипотеза предсказательного кодирования, утверждающая, то в отличие от языковых моделей, предсказывающих только ближайшие слова, человеческий мозг формирует предсказания на разных уровнях и временных масштабах. Ее проверяли уже другие ученые (гуглите Evidence of a predictive coding hierarchy in the human brain listening to speech).

Короче, о чем там. Мозг работает не только на предсказание следующего слова, но как бы запускается несколько процессов разного «разрешения». Височная кора (низший уровень) предсказывает краткосрочные и локальные элементы (звуки, слова). Лобная и теменная кора (высший уровень) предсказывает долгосрочные и глобальные языковые структуры. Семантические прогнозы (смысл слов и фраз) охватывают более длительные временные интервалы (≈8 слов вперёд). Синтаксические прогнозы (грамматическая структура) имеют более короткий временной горизонт (≈5 слов вперёд).

Если попробовать перенести эту концепцию в архитектуру языковых моделей (LLM), можно улучшить их работу за счёт иерархической предсказательной системы. Сейчас модели типа GPT работают с фиксированным контекстным окном — они анализируют ограниченное количество предыдущих слов и предсказывают следующее, не выходя за эти рамки. Однако в мозге предсказания работают на разных уровнях: локально — на уровне слов и предложений, и глобально — на уровне целых смысловых блоков.

Один из возможных способов улучшить LLM — это добавить в них механизм, который будет одновременно работать с разными временными горизонтами.

Интересно, можно ли настроить LLM так, чтобы одни слои специализировались на коротких языковых зависимостях (например, соседних словах), а другие — на более длинных структурах (например, на смысловом содержании абзаца). Я гуглю, что-то похожее есть в теме по «hierarchical transformers», где слои взаимодействуют между собой на разных уровнях абстракции, но там все-таки это больше для обработки супердлинных документов.

Как я понимаю, проблема с тем, что для такого нужно с нуля обучать фундаментальные модели, и наверное, это не очень работает на неразмеченном или плохо размеченном контенте.

Другой вариант — использовать многозадачное обучение, чтобы модель не только предсказывала следующее слово, но и пыталась угадать, о чём будет ближайшее предложение или даже целый абзац. Вроде как, опять же, гуглеж показывает, что это можно реализовать, например, через разделение голов (attention heads) в трансформере, где одни части модели анализируют короткие языковые зависимости, а другие прогнозируют более долгосрочные смысловые связи. Но как только я погружаюсь в эту тему, у меня взрывается мозг. Там все реально сложно.

Но возможно, если удастся встроить в LLM такую многоуровневую систему предсказаний, то они смогут лучше понимать контекст и генерировать более осмысленные и согласованные тексты, приближаясь к тому, как работает человеческий мозг.

Буду в марте на конференции по теме, нужно будет поговорить с учеными мужами.

Гуляя с Юки: Зимний день у пруда | 08 февраля 2025 года, 15:13

Гуляю с Юки. Некоторые утки долго не шевелятся. Наверное, у них такая игра.

Прилетели нам пруд, а тут ещё лёд. Видимо, пёрышки грязные, и им грустно

Помощники AI в моей повседневной жизни | 05 февраля 2025 года, 21:04

Короче, у меня теперь ChatGPT зависимость. Он обогнал уже гугл и фейсбук и лезет во все области жизни потихоньку.

(Конкретно я использую не только ChatGPT, потому что для определенных нужд нам нужно пользоваться аналогом, запущенном нашими инженерами во внутренней корпоративной сети, поэтому все ниже не только про ChatGPT, а в целом про AI помощников в целом. Но для личных нужд у меня это только ChatGPT)

(1) Итак, за последние полгода я создал, наверное, пару сотен скриптов на питоне для обработки данных. Ни один из скриптов я не писал сам (хотя могу; но спросите меня через годик-два, может уже не смогу). Чтобы написать скрипт для обработки данных, я просто формулирую очень четко что мне нужно, потом внимательно смотрю на результат, и если он мне нравится, я его запускаю. Если он не работает, и нужно что-то подправить, я подправляю сам. Если в принципе не то получилось, то я прошу переделать. Чаще всего получается то. Пример: прочитать CSV, создать эмбеддинги для всех строк, кластеризовать, результат записать в отдельные файлы с номером кластера в имени. Или сделать какую-то группировку данных хитрую.

Отдельно надо сказать про команды bash. Например, я не могу на память написать как через командную строку отсортировать строчки из файла по длине и дать мне самые длинные. Или мне влом вспоминать детальный синтаксис awk или jq, чтобы через pipe обработать что-то из файликов, проще спросить у ChatGPT.

(2) За последнее время я очень часто перевожу на английский и с английского с помощью LLM. То есть, вместо того, чтобы пойти написать что-то самому на английском, мне проще написать на русском, получить перевод, а потом его закинуть в письмо. Это тупо быстрее. Тут даже дело не в знании английского — я конечно, могу и сам написать все тоже самое. Дело в том, сколько времени тратится на формулировки. Аргумент «получается вдвое быстрее и более понятно» бьет все остальное. Из минусов — английский у меня лучше от этого не становится.

(3) В целом, я провожу через различные LLM — в зависимости того, что за текст — почти 100% текстов на английском, которые я пишу. Прошу поправить грамматику, результат копипасчу куда мне там надо копипастить. В письмо или в джиру. Кажется, у меня скоро будет комплекс, что я отправил что-то не проверив. Потому что исправляют меня, хоть и по мелочам, всегда. Где-то артикль не тот, где-то запятой нет.

(4) Когда лень читать большие куски текста на английском, я все чаще их закидываю в ChatGPT и прошу сделать саммари — иногда на русском. По работе так нельзя, потому что куски текста часто от клиента, но если очень надо, есть и локальная LLM.

(5) Я все чаще валидирую всякие дизайн-решения (не визуальный дизайн, а дизайн ПО) через ChatGPT/LLM. Предлагаю покритиковать или дополнить. Очень часто результат наводит на мысли, где что-то надо доработать, или добавить ассампшенов.

(6) А еще я использую для суммаризации видосов на Youtube. Просто скачиваешь через youtube subtitle downloader субтитры в формате TXT, и закидываешь в LLM, и дальше по ним можно задавать вопросы или суммаризацию запросить. Очень помогает понять, смотреть или нет видео.

А какие у вас паттерны использования?

Трагедия в небе: Память о фигуристах | 30 января 2025 года, 23:42

Спасибо тем, кто переживал, звонил, и писал сегодня с утра, все ли в порядке с нами. С нами, слава богу, все в порядке.

В самолете были спортсмены, возвращающиеся со сборов, организованных в Уичито для лучших фигуристов юниорского, промежуточного и начального уровней, летящие с Чемпионата мира, и, да, часть из них знакома Наде и Маше, а некоторые близко знакомы. Всего погибло 14 человек, имеющих отношение ко льду, а вообще из 64 человек на борту не выжил никто.

Шесть членов сборной США по фигурному катанию, находившихся на злополучном рейсе, были связаны с Клубом фигурного катания Бостона. Фигурист Спенсер Лейн, его мать Молли, фигуристка Джинна Хан и её мать Джин, а также тренеры Евгения Шишкова и Вадим Наумов находились на борту самолёта. Также Надя и Маша знали хорошо сестренок Эверли and Алидию Ливингстон, 11 и 14 лет, и знали хорошо Инну Волянскую. Очень, очень грустная новость.

Похожая трагедия была в 1961 году, когда самолет, на борту которого находились 18 членов сборной США по фигурному катанию, направлявшихся на чемпионат мира в Прагу, разбился при попытке приземления в Брюсселе. Все 73 человека, находившиеся на борту, погибли, включая 16-летнюю Лоренс Оуэн, известную как «Королева льда Америки», вместе с ее мамой-тренером Мэрибел Винсон-Оуэн и старшей сестрой Мэрибел Оуэн.

Списки погибших будут. В США есть неписанное этическое правило, что в случае гибели сначала извещаются родственники, а потом, спустя какое-то время, СМИ.

Использование октоторпа в современной коммуникации | 21 января 2025 года, 20:59

Надо будет попробовать в коллах вместо Number Sign/Pound Key (#)

говорить

OCTOTHORPE 🤨

Армен Захарян | 16 января 2025 года, 20:38

Как всегда прекрасно, вдохновенно, воодушевляюще, интересно, познавательно, оригинально, стильно, неожиданно, с горящими глазами, любовью, добротой и уважением к слушателям и слушательницам, почитателям и почитательницам, к взрослым и не очень, с множеством примеров перечней разнообразных, длиннющих, однопорядковых и не сочетающихся, состоящих из синонимов, антонимов, названий городов, рек, книг, местечек, гостиниц, людей разных профессий, характеров, внешности, писателей всех времен и народов новое видео от Армена Захаряна, с Фёдором или без, про перечни, списки, каталоги, перечисления в литературе.

Салат в колготках: открытия в неожиданных местах | 02 января 2025 года, 22:17

Последнее, что ожидаешь увидеть в упаковке женских колготок — это рецепт салата. С моцареллой и авокадо.

В общем, я залез в новую для меня тему и наоткрывал очень много всего.

Например, оказалось, что лайкра (lycra) — это не название ткани, как я всегда думал, а бренд ткани, называющейся спандекс (spandex), который я как раз бы принял за бренд. И еще кстати, spandex — это официально анаграмма слова expands. В Европе spandex еще известен как elastane. И есть бренд эластана, называющийся Elaspan, относящийся к The Lycra Company. В общем, все сложно.

Кстати, этот спандекс изобрел Джозеф Шиверс в двух часах от меня, в Waynesboro, VA.

Еще в США колготки крайне непопулярны. При этом, если их вообще одевают, то они будут черными и почти непрозрачными. Телесного цвета и тонкие не найдешь ни у кого почти (по крайней мере в наших краях). Купить можно что угодно на Амазоне, но вот в магазине их никогда нет. Видимо, рецепты салатов никого не интересуют. Зато леггинсы завоевали рынок. Особенно lululemon. Впрочем, женские туфли на высоком каблуке и обтягивающие мини-платья также крайне непопулярны и одеваются только условно три раза в год. Например, школьницами на Prom и Homecoming — но даже в этом случае без колготок. Как туфли, так и платья на них часто очень плохого качества, но на два-три раза в год хватает с лихвой, а потом просто покупаются новые).

В тот же день в Новом Орлеане в антикварном M.S. Rau я увидел штуковину, название которой (darner) и внешний вид мне показались очень непонятными. Я пошел гуглить, и по слову darner показываются только стрекозы. Оказывается, stocking darner— это штопальник для чулок. Собственно, этот стеклянный штопальник, выглядящий как шар на ручке, продавался в M.S.Rau за $4400. Гугл же по stocking darner показывает в основном металлические штопальники, выглядящие как обруч со скобами. В советские времена они были «грибочками».

Есть еще лингвистическое. На английском колготки — tights, но также и pantyhose. Вообще считается, что pantyhose — это тонкие (8-40), а tights — толстые (40+). В британском английском слово «tights» охватывает весь спектр колготок, в отличие от американского английского.

Еще интересно, что в 1972 году австралийские спасатели придумали надевать колготки для защиты от потенциально смертельных ожогов кубомедуз (морских ос). Забавно, но правда должно помогать.

В общем, в свои 47 открываю новые горизонты, надеюсь, и вам было интересно.

Жизнь Пи: новые грани в спектакле | 02 января 2025 года, 05:11

Спектакль “Жизнь Пи” я не мог пропустить. Я читал книгу Янна Мартела на русском, потом — в образовательных целях — на английском, потом — в тех же целях — слушал аудиоверсию на английском, потом вместе с семьей коротал время в какой-то долгой семейной автопоездке, слушая аудиокнигу на русском, и потом еще посмотрел фильм Энга Ли. И вот сейчас добрался до спектакля.

У меня под спектаклем всегда понималось что-то гораздо более простое, чем то шоу, с которого мы только что пришли. “Бродвейский стандарт” не дает заснуть публике не только интересным сценарием (в целом на 99% отражающим книгу), но и очень крутыми аудиовизуальными эффектами: проекции на четыре стены, сложные декорации, синхронные движения актеров с запрограммированными эффектами. Очень круто сделано puppetry: по сюжету там много животных, они все важны, и перенести это на сцену всегда казалось мне невероятно сложной задачей.

Сюжет такой: после кораблекрушения посреди Тихого океана индийский мальчик по имени Пи Пател выживает на спасательной шлюпке вместе с четырьмя спутниками — гиеной, зеброй, орангутангом и королевским бенгальским тигром.

Когда я в первый раз читал книгу, я почему-то даже не знал, что где-то в конце первой трети начнется “жесть” с кораблекрушением и борьбой с голодом и страхом. Потому что первая треть философская — про религию и то, как молодой Пи совмещает в себе несколько верований одновременно. Для меня это было почти медитативное чтение: размеренное, вдумчивое, с размышлениями о Боге, смысле жизни и о том, как найти свое место в мире. Казалось, что книга движется к чему-то глубокому, но неспешному. И вот внезапно — кораблекрушение. Жизнь Пи переворачивается с ног на голову, и начинается совершенно другая история — жесткая, суровая, наполненная отчаянием и борьбой за выживание. Но там дальше есть и третья часть, совершенно психоделическая, — но не буду спойлерить. Вот эту третью часть в спектакле ужали в одну минуту, но сделали это очень органично.

Пожалуй, спектакль добавил новые оттенки в мое восприятие этой истории. Если книга и фильм фокусировались больше на эмоциях и философии, то спектакль — на визуальном и эмоциональном потрясении. Однако все они подчеркивают главный вопрос: где заканчивается реальность и начинается вымысел? Что из того, что пережил Пи, было реальностью, а что — плодом его воображения, пытающегося справиться с ужасом?

После спектакля я еще раз задумался, что каждый вид искусства показывает эту историю по-своему. Книга — о размышлениях, а спектакль — это визуальный взрыв, возможно, даже более сильный, чем фильм 2012 года. Но главное, что после всех версий “Жизни Пи” я понял одно: иногда достаточно просто хорошо рассказанной истории, чтобы выйти из зала и обсудить ее за ужином, вспоминая самые яркие моменты. Этот спектакль точно стоит того, чтобы его увидеть.