Гастрономические приключения с сувидом | 11 февраля 2025 года, 02:55

Ну вот, теперь и я добрался до сувида. В итоге, куханная электротехническая утварь, вовлеченная в готовку, стала включать электроскороварку Power Quick Pot, аэрогриль/айрфраер Ninja, слоукукер Crock-Pot, и вот теперь сувид Anova. Сделал первые стейки, получается круто, но в следующий раз вместо 150 F (65C) буду ставить 140F (60 C).

Алфавитный ключ к памяти | 11 февраля 2025 года, 02:23

У меня есть один лайфхак для вспоминания забытого слова, который работает довольно надежно в моем случае. Может, будет работать и в вашем.

Заключается он в том, что для того, чтобы вспомнить некоторое слово, я перечисляю буквы алфавита, стараясь вспоминать то самое слово, спрашивая себя «начинается на А? на Б? На В?». И на букве, на которую это слово на самом деле начинается, у меня оно вспоминается целиком.

Например, мне сегодня нужно было вспомнить одну группу из 90-х. Я не помнил ничего. Ни названий песен, ничего, что я мог бы найти погуглив через минуту. Но определенная «картинка» в голове была. Наверное, если бы я еще немного помучался, я бы придумал поисковые запросы, которые вывели бы меня куда надо, но я вытащил эту технику и начал перебирать буквы.

И вот перебирая А, Б, В, … на букве К я вспоминаю — «Кармен»!

Иногда, редко, приходится делать «второй проход». Ну, конечно, не всегда помогает, но с другой стороны, если совсем никакой системы нет, то непонятно, как вообще вспоминать. А так система есть, с нее можно начать, и она довольно часто срабатывает.

А вот для того, чтобы запомнить недлинные числа, чтобы их потом легче вспомнить, я мысленно рисую ломанную линию, обходящую панель кнопочного телефона. Получается визуально загогулина, которую можно заполнить в дополнение к числам. Правда, в отличие от первого подхода, этим я пользуюсь редко, потому что запоминать и потом вспоминать числа особо по жизни не приходится.

Мир неожиданных фактов: от клубники до зебр | 10 февраля 2025 года, 22:11

Век живи — век учись.

Клубника, земляника — это не ягоды, а орехи. Вернее, не сами плоды, а семечки, а мякоть — это цветоложе. Картофель — это двугнездая ягода. Груша — это яблоко. Черешня, слива, абрикос, персик — костянки. Разделяются однокостянка (например, вишня, слива, персик, кокос) и многокостянка (например, малина, ежевика, морошка). Бананы — это ягоды. Ананас — трава. Арбуз — ягода (тыквина). Миндаль — не орех, а сухой плод. Семена яблок, косточки вишни, абрикоса, персика или сливы содержат цианиды (амигдалин в них превращается). Как и в миндале. В шоколаде есть теобромин — пару плиток шоколада для собаки смерть или около того, половинка — точно свалит с ног. Ваниль делают из мексиканской орхидеи-лианы, а вот ванилин, искусственный заменитель ванили, является побочным продуктом целлюлозно-бумажной промышленности.

Такого вида как пантера не существует. Пантерами называют «в народе» черных ягуаров или леопардов. У черных пантер тоже есть пятна, просто они хуже видны. У белых медведей черная кожа и прозрачный мех. А белые они потому же, почему облака белые. У дятлов язык раза в четыре длиннее клюва, поэтому он обвит вокруг черепа и может вытягиваться. Язык европейского зелёного дятла спускается в горло, тянется через заднюю часть шеи, вокруг задней части черепа под кожей, по темени между глазами, заканчивается обычно прямо под глазницей. У некоторых дятлов язык выходит из черепа между глазами и входит в клюв через одну из ноздрей.

А у муравьеда язык прикреплён к грудине, между ключиц. Слоны – единственные животные, у которых четыре полноценных коленных сустава. Коалы имеют отпечатки пальцев, которые почти неотличимы от человеческих. У акул нет костей. Из ближайшие родственники — скаты. Крокодилы могут не есть целый год (но грустят). Зебры чёрные с белыми полосами, а не наоборот (белые появляются на чёрной коже). 1% людей имеет шейные рёбра. Кальмары, каракатицы осьминоги могут редактировать свою РНК «на лету».

Оказывается, Рене Декарт для России придумал декартову систему координат, а для всего остального мира — картезианскую. Потому что имя Декарта — Descartes, то есть Des Cartes, соответственно — Cartesian.

Мозг и большие языковые модели: Путеводитель по предсказательной обработке | 09 февраля 2025 года, 21:39

Я тут подумал, что понимание, как работают большие языковые модели (LLM; типа ChatGPT) объясняет как вероятно работает наш (по крайней мере мой) мозг и наоборот, наблюдение за тем, как работает мозг, может дать лучшее понимание, как тренировать LLM.

Ну вы знаете, что в основе LLM лежит простая логика — подбор подходящего следующего слова после N известных, образующих «контекст». Для этого LLM обучают на гигатском корпусе текстов, чтобы показать, какие слова идут ОБЫЧНО после каких в каком контексте.

Так вот когда изучаешь любой английский язык, по сути, этот этап тоже неизбежен. Нужно сталкиваться с потоком слов в любом виде — письменном или устном, чтобы мозг обнаружил и усвоил закономерности просто через наблюдение или слушание (а лучше и то, и то — мультимодальность).

В LLM за единицу берутся вообще не слова, а токены — слова и часто части слов. После обработки этого огромного корпуса текстов оказалось несложным найти просто наиболее частые последовательности, которые конечно оказались где-то словами, а где-то частями слов. Так вот, когда начинаешь говорить что-то на иностранном языке, особенно с системой окончаний, начинаешь произносить начало слова, и мозг в этот момент кипит над «вычислением» окончания.

Когда мы читаем текст или слушаем, мы на самом деле не разбираем слова по буквам, потому что очень часто там просто пропадают важные куски из-за быстрой или невнятной речи, опечаток. Но мозгу вообще не надо перебирать все слова, выглядящие или звучащее как данное, ему нужно понять, совпадает ли что услышано или увидено с очень ограниченным набором слов, которые в принципе могут стоять после предыдущего слова.

Отдельная история с целыми фразами. В нашем мозгу они образуют единый «токен». То есть, не разбиваются по отдельным словам, если специально об этом не думать. И такие токены тоже идут в потоке не случайно — мозг их ожидает, и как только слышит или видит знаки, что фраза появилась, дальше круг вариантов сужается до буквально 1-2 возможных фраз с таким началом и все, какая-то одна из них является тем, что и сказано или написано.

Но самое интересное, что недавнее исследование показало: человеческий мозг действительно работает очень похоже на LLM. В работе «The neural architecture of language: Integrative modeling converges on predictive processing» ученые MIT показали, что модели, которые лучше предсказывают следующее слово, также точнее моделируют активность мозга при обработке языка. То есть механизм, используемый в современных нейросетях, не просто вдохновлен когнитивными процессами, а реально отражает их.

В эксперименте анализировались данные fMRI и электрокортикографии (ECoG) во время восприятия языка. Исследователи обнаружили, что лучшая на тот момент предсказательная модель (GPT-2 XL) могла объяснять почти 100% объяснимой вариации нейронных ответов. Это значит, что процесс понимания языка у людей действительно строится на предсказательной обработке, а не на последовательном анализе слов и грамматических конструкций. Более того, именно задача предсказания следующего слова оказалась ключевой — модели, обученные на других языковых задачах (например, грамматическом анализе), хуже предсказывали мозговую активность.

Если это правда, то ключ к fluent чтению и говорению на иностранном языке — это именно тренировка предсказательной обработки. Чем больше мозг сталкивается с потоком естественного языка (как письменного, так и устного), тем лучше он может формировать ожидания о следующем слове или фразе. Это также объясняет, почему носители языка не замечают грамматических ошибок или не всегда могут объяснить правила — их мозг не анализирует отдельные элементы, а предсказывает целые паттерны речи.

Получается, если хочется говорить свободно, нужно не просто учить правила, а буквально погружать мозг в поток языка — слушать, читать, говорить, чтобы нейросеть в голове натренировалась предсказывать слова и структуры так же, как это делает GPT.

При этом, есть гипотеза предсказательного кодирования, утверждающая, то в отличие от языковых моделей, предсказывающих только ближайшие слова, человеческий мозг формирует предсказания на разных уровнях и временных масштабах. Ее проверяли уже другие ученые (гуглите Evidence of a predictive coding hierarchy in the human brain listening to speech).

Короче, о чем там. Мозг работает не только на предсказание следующего слова, но как бы запускается несколько процессов разного «разрешения». Височная кора (низший уровень) предсказывает краткосрочные и локальные элементы (звуки, слова). Лобная и теменная кора (высший уровень) предсказывает долгосрочные и глобальные языковые структуры. Семантические прогнозы (смысл слов и фраз) охватывают более длительные временные интервалы (≈8 слов вперёд). Синтаксические прогнозы (грамматическая структура) имеют более короткий временной горизонт (≈5 слов вперёд).

Если попробовать перенести эту концепцию в архитектуру языковых моделей (LLM), можно улучшить их работу за счёт иерархической предсказательной системы. Сейчас модели типа GPT работают с фиксированным контекстным окном — они анализируют ограниченное количество предыдущих слов и предсказывают следующее, не выходя за эти рамки. Однако в мозге предсказания работают на разных уровнях: локально — на уровне слов и предложений, и глобально — на уровне целых смысловых блоков.

Один из возможных способов улучшить LLM — это добавить в них механизм, который будет одновременно работать с разными временными горизонтами.

Интересно, можно ли настроить LLM так, чтобы одни слои специализировались на коротких языковых зависимостях (например, соседних словах), а другие — на более длинных структурах (например, на смысловом содержании абзаца). Я гуглю, что-то похожее есть в теме по «hierarchical transformers», где слои взаимодействуют между собой на разных уровнях абстракции, но там все-таки это больше для обработки супердлинных документов.

Как я понимаю, проблема с тем, что для такого нужно с нуля обучать фундаментальные модели, и наверное, это не очень работает на неразмеченном или плохо размеченном контенте.

Другой вариант — использовать многозадачное обучение, чтобы модель не только предсказывала следующее слово, но и пыталась угадать, о чём будет ближайшее предложение или даже целый абзац. Вроде как, опять же, гуглеж показывает, что это можно реализовать, например, через разделение голов (attention heads) в трансформере, где одни части модели анализируют короткие языковые зависимости, а другие прогнозируют более долгосрочные смысловые связи. Но как только я погружаюсь в эту тему, у меня взрывается мозг. Там все реально сложно.

Но возможно, если удастся встроить в LLM такую многоуровневую систему предсказаний, то они смогут лучше понимать контекст и генерировать более осмысленные и согласованные тексты, приближаясь к тому, как работает человеческий мозг.

Буду в марте на конференции по теме, нужно будет поговорить с учеными мужами.

Радиоуглеродный анализ: наследие ядерных испытаний | 09 февраля 2025 года, 14:35

Оказалось, что ядерные испытания 1955-1963 года на всей Земле оставили отпечаток во всех живых организмах, и ученые могут таким образом определять возраст клеток любого живого (тогда) существа на Земле и частоту их обновления, что без ядерных испытаний было бы это сделать заметно сложнее. Есть даже специальный термин «C-14 bomb-pulse dating».

Вот как такой радиоуглеродный анализ работает. С 1955 по 1963 год использование атомных бомб удвоило количество углерода-14 в атмосфере. Атмосферный углерод-14, который обычно образуется только под воздействием космического излучения, реагирует с кислородом, образуя диоксид углерода (¹⁴CO₂). Этот ¹⁴CO₂ поглощается растениями в процессе фотосинтеза и передаётся в организм человека непосредственно через растительную пищу и опосредованно через мясо животных, при этом его количество примерно соответствует концентрации в атмосфере. Животные едят эти растения, мы едим этих животных – и углерод-14 оказывается в наших телах, встраиваясь в наши ткани.

Большинство тканей в живых организмах постепенно обновляются в течение недель или месяцев, поэтому содержание углерода-14 в них соответствует текущему уровню в атмосфере. Однако ткани, которые либо не обновляются, либо обновляются очень медленно, будут содержать уровень углерода-14, близкий к тому, который был в атмосфере на момент их формирования. Таким образом, измеряя содержание углерода-14 в тканях людей, живших во время и после пика «бомбового импульса», можно точно оценить скорость замены определённой ткани или её компонентов.

Это означает, что случайным образом ядерные испытания предоставили учёным способ понять, когда формируются ткани, как долго они сохраняются и с какой скоростью заменяются.

Оказывается, практически каждое дерево, жившее с 1954 года, содержит «всплеск» – своеобразный сувенир от атомных бомб. Где бы ботаники ни искали, они находят этот маркер. Есть исследования в Таиланде, исследования в Мексике, исследования в Бразилии – где бы вы ни измеряли уровень углерода-14, он там есть. Все деревья несут этот «маркер» – деревья северных широт, тропические деревья, деревья дождевых лесов – это общемировой феномен.

Но есть загвоздка. Каждые одиннадцать лет количество углерода-14 в атмосфере уменьшается наполовину. Как только уровень углерода-14 вернётся к исходному значению, этот метод станет бесполезным. Scientific American поясняет, что «у учёных есть возможность использовать этот уникальный метод датирования лишь несколько десятилетий, пока уровень углерода-14 не вернётся к норме». Это означает, что если они хотят воспользоваться этим методом, им нужно торопиться. Если только не произойдут новые ядерные взрывы – но этого никто не хочет.

Кроме прочего, это позволяет определять возраст человека по зубам и волосам. Как только зуб формируется, количество углерода-14 в его эмали остается неизменным, что делает его идеальным инструментом для датировки человека. Поскольку определенные зубы формируются в конкретные возрастные периоды, измерение содержания 14C в различных зубах может помочь исследователям оценить диапазон годов рождения. С волосами тоже самое, только они растут около 1 см в месяц, и по содержанию в разных частях волоса можно тоже делать выводы.

Для датировки углерода в зубах требуется около одной трети целого зуба, или 100 миллиграммов. Для подготовки образца его измельчают и растворяют в кислоте, что высвобождает CO2. При работе с волосами вместо растворения их в кислоте их сжигают. Поскольку волосы имеют высокое содержание углерода, требуется всего 3-4 миллиграмма волос. CO2 из образца зуба или волос затем восстанавливают до графита — кристаллической формы углерода — и помещают в ионный источник в CAMS, где нейтральные атомы графита превращаются в ионы путем придания им отрицательного заряда. Затем ускоритель может использовать этот отрицательный заряд для ускорения образца, что позволяет обнаруживать, подсчитывать и сравнивать соотношения атомов разных изотопов углерода. На графиках pMC — это отношение концентраций.

В 1960-х годах, когда концентрация C-14 резко менялась, метод позволял определять возраст тканей с точностью до ±1 года. Однако после 2000 года, по мере выравнивания уровня C-14, точность снизилась до ±2–4 лет.

Как ваши данные уходят к третьим сторонам через приложения | 08 февраля 2025 года, 16:20

Недавно наткнулся на интересное исследование на сайте Timsh org, где автор разобрал, как приложения собирают и передают ваши данные. В эксперименте использовалось старое устройство iPhone и перехват трафика. На телефон было установлено условно некоторое рандомное приложение — для эксперимента это был Stack от KetchApp. Автор перехватывал траффик и смотрел, что передается из приложения во внешний мир. А передавалось очень много всего даже при ответе «нет» на вопрос «Allow tracking?».

В частности, IP-адрес (что позволяет определить ваше местоположение через обратный DNS), приблизительная геолокация (даже с отключенными службами геопозиции),

модель устройства, уровень заряда батареи, уровень яркости экрана, количество свободной памяти и другие параметры.

Данные уходят конечно не в компанию-автор приложения, а неким третьим сторонам. То есть, эти третьи стороны собирают данные с большинства приложений на вашем телефоне, причем потоки идут каждый раз, когда приложение работает.

Автор пишет о двух крупных группах игроков — SSP и DSP.

К SSP (Supply-Side Platforms) относятся те, что собирают данные из приложения — Unity Ads, IronSource, Adjust. Есть также DSP (Demand-Side Platforms), которые управляют рекламными аукционами, это Moloco Ads, Criteo.

Рекламодатели получают доступ к данным через DSP. Брокеры данных — агрегируют и продают данные. Например, Redmob, AGR Marketing Solutions. Причем последний продает базы данных с PII, включая имя, адрес, телефон и даже рекламные идентификаторы (IDFA/MAID).

Какие данные отправляются? Вот к примеру тот Slack от KetchApp слал в Unity Ads геолокацию (широта, долгота), IP-адрес (включая серверные IP, например, Amazon AWS), уникальные идентификаторы устройства: IDFV (идентификатор для конкретного разработчика) и IDFA (рекламный идентификатор), а также такие доп параметры как модель телефона, уровень заряда, состояние памяти, яркость экрана, подключение наушников и даже точное время загрузки системы.

У DSP для продажи информации есть система RTB (real-time bidding). Данные из приложения передаются через SSP (например, Unity Ads), а затем в DSP (например, Moloco Ads), где в реальном времени проводятся аукционы для показа релевантной рекламы. На каждом этапе данные передаются десяткам, а то и сотням компаний.

Да, отвечая «Не хочу делиться данными», вы отключаете только отсылку IDFA (рекламный идентификатор), но при при этом другие данные, такие как IP-адрес, User-Agent и геолокация, и все эти модель телефона и свободная память, все равно передаются. Совместно они являются таким же фингерпринтом в моменте, как и рекламный идентификатор. Приложения при желании все равно могут вас идентифицировать по множеству параметров: IP-адресу, модели устройства, версии ОС, шрифтам, разрешению экрана, уровню батареи, часовому поясу и другим данным, так как получают эту информацию с сотни других мест. Другой вопрос, что «конечным приложениям» это не надо, это не бесплатно же, но тем, кто через них показывает вам рекламу это надо, и у них эта инфа есть. Ну и всякие спецслужбы легко могут получить доступ при необходимости, разумеется.

Если вы используете несколько приложений одного разработчика, идентификатор IDFV позволяет связать данные из всех приложений.

Наверное, это не секрет совсем, но в Facebook (Meta) отправляют данные почти все, при том, что у пользователя никто согласия не спрашивает. То есть, если у вас на телефоне есть фейсбук, то все, бинго, любые данные из любых других приложений начинают быть помеченными вашим профилем, даже, если вы в тех приложениях запретили делиться информацией.

Компании обмениваются пользовательскими данными друг с другом. Например, Facebook обменивается информацией с Amazon, Google, TikTok, а мобильные SDK (например, Appsflyer, Adjust) делают перекрестную привязку пользователей между разными сервисами, потому что такой обмен повышает цену и качество информации сразу у всех участников обмена. Таким образом, удаление одного приложения не мешает вашим данным «путешествовать» между разными платформами.

Заодно выяснилось, что Unity, который вообще-то 3D движками занимается для игр, в основном зарабатывает на продаже вот этих собираемых данных. Конкретно в 2023 году у них был доход с этого направления $2 млрд («Mobile Game Ad Network»). В 2022 году Unity поглотил IronSource — еще одного гиганта мобильной рекламы. IronSource занимается анализом поведения пользователей и оптимизацией монетизации, а также продажей данных рекламодателям. Теперь Unity через LevelPlay может управлять не только размещением рекламы, но и агрегацией данных, продавая их другим компаниям.

Большая часть мобильных игр создается на Unity, особенно free-to-play игры. Это позволяет Unity иметь доступ к данным с миллионов устройств по всему миру, даже без явного согласия пользователя. Разработчики часто не знают, насколько глубоко Unity отслеживает данные в их играх.

Вывод: отключение рекламы или запрет трекинга на уровне ОС — это всего лишь небольшое препятствие. Данные о вас все равно собираются, анализируются и передаются сотням компаний.

Ссылочку смотрите ниже

Гуляя с Юки: Зимний день у пруда | 08 февраля 2025 года, 15:13

Гуляю с Юки. Некоторые утки долго не шевелятся. Наверное, у них такая игра.

Прилетели нам пруд, а тут ещё лёд. Видимо, пёрышки грязные, и им грустно

Успех: Возможность, Талант или Просто Удача? | 08 февраля 2025 года, 00:51

Длинный пост про то, как достичь успеха! Бесплатно! без регистрации и смс! Я тут просто наткнулся на одну научную работу, которая доказывает, что роль случая в успехе выше, чем роль таланта. И это срезонировало с моим убеждением, что все успешные люди успешные, потому что им повезло, а не потому что они какие-то необыкновенно талантливые, умные, или необычные. Скорее даже наоборот, они такие, потому что им повезло. Заметьте, не потому что они «везунчики», а потому что им повезло. Это разные вещи.

Аргументирую. Есть исследование «Talent vs Luck: the role of randomness in success and failure», авторы Алессандро Плучино, Алессио Эмануэле Биондо и Андреа Рапизарда. Да, ржач в том, что Алессандро за эту работу получил Шнобелевскую премию («символическая награда за научные открытия, «сначала заставившие людей смеяться, а затем задуматься»»). Они использовали агентное моделирование для анализа вклада таланта и удачи в успех.

За исходные данные они взяли вроде как объективные вещи: талант и интеллект распределены среди населения по нормальному (гауссовскому) закону, где большинство людей имеют средний уровень этих качеств, а крайние значения встречаются редко, а богатство, часто рассматриваемое как показатель успеха, следует закону распределения Парето (степенному закону), при котором небольшое число людей владеет значительной частью ресурсов, а большинство — лишь малой долей.

Далее авторы разработали простую модель, в которой агенты (1000) с различным уровнем таланта подвергаются в течение условных 40 лет случайным событиям, которые могут быть как благоприятными (удача), так и неблагоприятными (неудача). Каждое такое событие влияет на «капитал» агента, служащий мерой его успеха.

Результат: Хотя определенный уровень таланта необходим для достижения успеха, наиболее успешными часто становятся не самые талантливые индивиды, а те, кто обладает средним уровнем таланта, но испытывает больше удачных событий. Существует сильная корреляция между количеством удачных событий и уровнем успеха: самые успешные агенты являются и самыми удачливыми.

Мое наблюдение за тем, «как работает мир», полностью с этими выводами согласуется. Нужно просто делать так, чтобы тебе больше везло. Всё. Не надо стараться быть самым умным — это не помогает настолько, насколько помогают следующие вещи:

1) Быть в среде, где случаются важные события. Кремниевая долина для стартаперов. Нью-Йорк для финансистов. Голливуд для актеров. Если окружение повышает вероятность знакомства с «ключевыми» людьми, то логично поместить себя в это окружение.

2) Создавать больше точек касания с миром и поддерживать их. Вести блог, писать статьи, давать интервью. Ходить на конференции, участвовать в сообществах. Звонить и писать знакомым и полузнакомым, особенно, когда такие звонки и письма им потенциально важны. Расширять количество контактов – даже если 99% бесполезны, 1% может изменить жизнь.

3) Увеличивать количество попыток. Чем больше проектов, тем выше шанс, что один из них «выстрелит». Лучший пример – венчурные фонды: они инвестируют в десятки стартапов, зная, что успех принесет лишь один. Художники, писатели, музыканты создают сотни работ, зная, что только одна станет хитом.

К сожалению, для этого пункта надо любить свое дело. Поэтому выбирайте такое дело, где попытки делать приятно.

Организационный психолог Томас Чаморро-Премузик в своей книге «Why Do So Many Incompetent Men Become Leaders?» утверждает, что удача составляет около 55% успеха, включая такие факторы, как место рождения и семейное благосостояние. Это так, но раз вы сидите в фейсбуке на айфончике за чашкой кофе, а не гоняете коров в набедренной повязке в Африке, у вас уже неплохие начальные условия.

Отсюда интересный вывод — нужно ли учиться в университете, чтобы тебя настиг успех в жизни? Смотрим на пункты выше. Быть в среде, создавать больше точек касания, увеличивать число попыток. Из этих трех пунктов два работают лучше в случае очного обучения, а третий работает не очень, потому что университет съедает 4-5 лет жизни (и университет — это одна попытка). Но зато два других критерия очень важны — за время обучения средний студент общается с сотнями сверстников, которые могут оказать существенный вклад в вероятность успеха этого студента.

Но вот сидеть эти пять лет дома с книжками — не соответствует ни одному критерию. Онлайн-образование находится где-то между, смотрите сами, оно разное бывает, но ближе к варианту «сидеть с учебниками».

Авторы исследования подтвердили концепцию «Эффекта Матфея». Это из Библии: «Ибо всякому имеющему дано будет, и приумножится; а у не имеющего отнимется и то, что имеет.» (Евангелие от Матфея, 25:29). Объясняют, почему успех накапливается, даже если он изначально случаен:

Люди, которым повезло на ранних этапах, получают больше ресурсов, возможностей и внимания. Это, в свою очередь, увеличивает их шансы на новые удачные события. В результате те, кто изначально оказался в выгодном положении, продолжают наращивать успех, а остальные остаются позади.

Это объясняет, почему богатые люди чаще получают выгодные инвестиции, популярные артисты становятся ещё популярнее, а менее известные остаются в тени, а компании, которые «попали в струю», привлекают больше клиентов и ресурсов, чем их менее удачливые конкуренты.

Именно поэтому для успеха еще нужно следовать принципу «Fake it till you make it». Успешный человек чаще преувеличивает свои навыки или достижения, а затем подтягивается до заявленного уровня. Общество такие штуки почему-то легко прощает и быстро забывает, но когда они срабатывают (а срабатывают часто), то человек уже в них особо не нуждается. Есть еще self-fulfilling prophecy — самореализующееся пророчество. Идея в том, что если человек заявляет что-то как факт (даже если это преувеличение), он и окружающие начинают вести себя так, будто это правда, и в итоге это действительно становится реальностью.

Есть еще принцип «за спрос денег не берут» (It doesn’t hurt to ask). Принцип в том, что если вероятность успеха поднимает заданный кому-то вопрос («а можете поднять мне зарплату с марта или включить главным вон в тот проект»), то надо спрашивать. You never know unless you ask.

И еще кое-что. Act now, apologize later. Actions speak louder than words. Как вы знаете, быть в нужное время в нужном месте имеет не только нужное место (это первый пункт из моего списка), но и нужное время. Поэтому just do it. Из людей, которые не мечтают, а делают, никогда никто не заканчивает бомжом на улице, потому что поторопился.

И последнее. Время — конечный ресурс. Хорошая идея была про листочек с клеточками — гуглите «90 лет жизни в неделях». Можно закрасить прожитые и посмотреть на оставшиеся.

Итак, резюмирую.

Успех определяется удачей, а не талантом. Талант помогает, но чаще формируется под влиянием успеха. Знания полезны, но опыт полезнее. Время — конечный ресурс. Планирование не работает, работают три вещи:

1) быть в среде, где случаются важные события,

2) создавать больше точек касания с миром и поддерживать их,

3) увеличивать количество попыток, где может сработать удача.

Три принципа:

1) Fake it till you make it

2) It doesn’t hurt to ask

3) Actions speak louder than words

Преодоление Legacy Paralysis: AI в борьбе с разложением ПО | 07 февраля 2025 года, 14:30

Так интересно наблюдать, что с ростом сложности и со временем софт переходит в состояние «вещь в себе», когда сами разработчики уже толком не понимают, как он работает, точнее, почему иногда и внезапно не работает, и предпочитают минимально его трогать, отчего они со временем еще меньше его понимают, и он застывает в том, как есть на годы. Этот процесс известен как software rot (разложение ПО) или legacy paralysis (паралич легаси-кода).

Но боссы и рынок требуют развития, поэтому вместо того, чтобы что-то по существу менять и улучшать, разработчики навешивают «свистелки и перделки», которые вырастают рядом, а не являются изменением основного продукта. Ведь всем понятно, что если начать лезть в основной продукт, можно встать на путь, который ведет к разочарованиям, срывам сроков, увольнениям и т.д.

Интересно, что с приходом AI эта проблема с одной стороны будет только усугубляться, потому что команда будет еще меньше понимать, как что работает, а с другой — сложность можно взять под контроль, так как для AI анализ сложных штук дается проще, чем для одного биологического мозга.

Например, AI можно использовать для создания тестов к существующему коду, а также выполнять поиск аномалий и потенциальных багов, для создания документации и объяснения структуры кода от простого к сложному, можно частично автоматизировать рефакторинг и обнаруживать узкие места производительности.

Думаю, что такие AI решения для работы с легаси должны быть крупным рынком скоро

Фрэнсис Белл | 06 февраля 2025 года, 20:59

(ENG) Очень классная английская художница, Frances Bell. На ее картинах или портреты, или люди у воды, но все сделано с колоссальным вниманием к деталям без собственно самих деталей — прямо по заветам Саржента. Традиционные техники, просто люди, живые, позируют. Frances говорит, что она работает исключительно с натуры, никаких фотографий. Посмотрите, как здорово переданы цвета, формы, буквально «одним штрихом».

Подобные посты группируются по тегу #artrauflikes, а на beinginamerica.com в разделе «Art Rauf Likes» есть все 145 (в отличие от Facebook, который забывает (забивает) на почти половину).

(ENG) An outstanding English artist, Frances Bell. Her paintings feature either portraits or people by the water, but everything is done with an incredible attention to detail—without actually depicting the details themselves—just as Sargent would have wanted. She uses traditional techniques, simply painting live models who pose for her, full of life. Frances says she works exclusively from life, never from photographs. Take a look at how beautifully she captures colors and forms, often with just a single stroke.

Similar posts are grouped under the hashtag , and you can find all 145 of them in the Art Rauf Likes section on beinginamerica.com—unlike Facebook, which forgets (or ignores) nearly half of them.

(/ENG)