Как создать «худший е-байк в истории»: уроки футуристического дизайна | 11 февраля 2025 года, 23:02

Очень классное видео про то, что бывает, если пусть прототип в «прод».

Вот оригинальное видео про «худший е-байк в истории»:

Фактически, разработчики решали проблему, которой нет. Они решили сделать первый велосипед с футуристичным безосевым колесом. При этом законы физики они поменять не додумались. А зря, оно бы им очень помогло. Ну кроме этого там просто был расчет на «и так сойдет».

В видео, приложенном к посту, ребята разбирают этот велик и показывают инженерные решения внутри. Фактически, такой реверс-инжиниринг.

Я прекрасно понимаю, что именно так и делаются айти-стартапы. Но на примере велика показано, насколько этот подход плохо переносится в «железо».

У меня сейчас в получасе езды продается такой велик за 120 баксов на Facebook Marketplace. Наверное, с расчетом, что купит какой-нибудь музей.

Видео должно быть особо интересно велосипедистам и инженерам.

Мировые лидеры рынка спортивной обуви: кто в топе? | 11 февраля 2025 года, 22:05

Сегодня покупали кроссовки, и я решил поинтересоваться, а что за страны сейчас в мировых лидерах по кроссовкам.

В целом, без сюрпризов — США в абсолютных лидерах. Германия и Япония заметны. Остальные догоняют.

Американские бренды — как минимум, 9 штук: Nike (+Converse), New Balance, Brooks, Saucony (+Merrell), Reebok, Skechers, Vans, Hoka. Чисто про спорт наверное 7 из списка.

Японские — Asics, Mizuno.

Немецкие — Adidas, Puma (кстати, обе основаны братьями Дасслерами, но это конкуренты). Швейцарские — On. Корейские — Fila.

Конечно, производства все в Китае, Вьетнаме, Индонезии.

Лично я покупаю давно практически исключительно Asics. Они очень удобные, хотя по дизайну так себе, на троечку.

Кстати, хотите интересный факт, который вы наверняка не знали? Тонкий слой фетра на подошве кед Converse добавляется (по крайней мере по состоянию на 10 лет назад — добавлялся) не по функциональным причинам, а из экономических соображений. Обувь с тканевой подошвой облагалась более низкими таможенными пошлинами при импорте по сравнению с обувью с резиновой подошвой, потому что она классифицируется как тапочки. И пошлина снижалась с 37,5% до 3%.

Кто из других стран — есть какие-то бренды, которые на ваших рынках очень заметны и популярны, а до США еще не добрались?

Прогулка по Пентагону: взгляд изнутри | 11 февраля 2025 года, 21:23

Сегодня прогуливался по коридорам Пентагона.

Пентагон – это штаб-квартира Министерства обороны США, расположенная в Арлингтоне. Это второе крупнейшее офисное здание в мире, построенное в форме пятиугольника.

Фотографий не будет, потому что телефоны и даже Apple Watch просили сдать на входе. Но, честно говоря, там и снимать-то нечего. Не то, чтобы зрелище совсем унылое, но в целом 90% коридоров (а их там на 28 км) выглядят практически также, как 90% коридоров любого американского вуза. То есть, чистенько, светленько, аккуратненько, и всё. Только в вузе есть еще доски со всяким интересным на стенах встречаются, а в Пентагоне досок в коридорах нет, все спрятано. Во всем остальном тоже самое. Бесконечные двери повышенной унылости с номерами и кодовыми замками, часть коридоров украшена патриотическими инсталляциями. Уверен, что за многими дверями находится очень много интересного, но для входа в многие из них телефон нужно оставлять уже в коридоре (а я напомню я свой еще у входа оставил).

В здании работают примерно 26 000 человек. Из них около трети — гражданские, остальные — военные. Несмотря на то, что Пентагон находится в Арлингтоне, в Вирджинии, адрес у него Вашингтонский — 1400 Defense Pentagon, Washington, DC 20301-1400. Говорят, что у Пентагона есть шесть почтовых индексов Вашингтона, и что у министра обороны США, Объединенного комитета начальников штабов и каждого из четырех видов вооруженных сил есть свой собственный почтовый индекс (вроде как 20301, 20318, 20310, 20330, 20350, и 20380).

Здание построили в 1943, так что в то время в угоду сегрегации строили отдельно туалеты для черных и белых. Сейчас, конечно, все уже не так.

Поскольку работает в здании 26000 человек — это считай население небольшого города, и парковка там довольно ограниченная (большая, но все равно недостаточная), к Пентагону подходит станция метро, которая практически больше ни для чего не нужна. Внутри периметра есть все, что нужно, чтобы дожить до конца рабочего дня — Subway, McDonald’s, Dunkin’ Donuts, Panda Express, Starbucks, Sbarro, KFC, Pizza Hut, and Taco Bell, аптеки, даже Best Buy.

Вообще с архитектурной точки зрения очень интересный проект. Смотрите, при таком числе людей и таких площадях, добраться из любой точки в любую точку можно за не более, чем 10 минут. Никаких лифтов, широкие коридоры и лестницы. Даже в случае каких-то экстренных эвакуаций спасти людей будет сильно проще. Хотя, конечно, в 2001 году был печальный опыт — помните, самолет, управляемый террористами, врезался в здание. Тогда погибло полторы сотни сотрудников Пентагона и, конечно, все на борту того самолета.

Вокруг Пентагона находится Crystal City — обычный город с торговыми центрами и многоэтажными жилыми комплексами разной степени элитности, а с другой стороны — Арлингтонское национальное кладбище, где захоронено 400,000 человек.

Гастрономические приключения с сувидом | 11 февраля 2025 года, 02:55

Ну вот, теперь и я добрался до сувида. В итоге, куханная электротехническая утварь, вовлеченная в готовку, стала включать электроскороварку Power Quick Pot, аэрогриль/айрфраер Ninja, слоукукер Crock-Pot, и вот теперь сувид Anova. Сделал первые стейки, получается круто, но в следующий раз вместо 150 F (65C) буду ставить 140F (60 C).

Алфавитный ключ к памяти | 11 февраля 2025 года, 02:23

У меня есть один лайфхак для вспоминания забытого слова, который работает довольно надежно в моем случае. Может, будет работать и в вашем.

Заключается он в том, что для того, чтобы вспомнить некоторое слово, я перечисляю буквы алфавита, стараясь вспоминать то самое слово, спрашивая себя «начинается на А? на Б? На В?». И на букве, на которую это слово на самом деле начинается, у меня оно вспоминается целиком.

Например, мне сегодня нужно было вспомнить одну группу из 90-х. Я не помнил ничего. Ни названий песен, ничего, что я мог бы найти погуглив через минуту. Но определенная «картинка» в голове была. Наверное, если бы я еще немного помучался, я бы придумал поисковые запросы, которые вывели бы меня куда надо, но я вытащил эту технику и начал перебирать буквы.

И вот перебирая А, Б, В, … на букве К я вспоминаю — «Кармен»!

Иногда, редко, приходится делать «второй проход». Ну, конечно, не всегда помогает, но с другой стороны, если совсем никакой системы нет, то непонятно, как вообще вспоминать. А так система есть, с нее можно начать, и она довольно часто срабатывает.

А вот для того, чтобы запомнить недлинные числа, чтобы их потом легче вспомнить, я мысленно рисую ломанную линию, обходящую панель кнопочного телефона. Получается визуально загогулина, которую можно заполнить в дополнение к числам. Правда, в отличие от первого подхода, этим я пользуюсь редко, потому что запоминать и потом вспоминать числа особо по жизни не приходится.

Мир неожиданных фактов: от клубники до зебр | 10 февраля 2025 года, 22:11

Век живи — век учись.

Клубника, земляника — это не ягоды, а орехи. Вернее, не сами плоды, а семечки, а мякоть — это цветоложе. Картофель — это двугнездая ягода. Груша — это яблоко. Черешня, слива, абрикос, персик — костянки. Разделяются однокостянка (например, вишня, слива, персик, кокос) и многокостянка (например, малина, ежевика, морошка). Бананы — это ягоды. Ананас — трава. Арбуз — ягода (тыквина). Миндаль — не орех, а сухой плод. Семена яблок, косточки вишни, абрикоса, персика или сливы содержат цианиды (амигдалин в них превращается). Как и в миндале. В шоколаде есть теобромин — пару плиток шоколада для собаки смерть или около того, половинка — точно свалит с ног. Ваниль делают из мексиканской орхидеи-лианы, а вот ванилин, искусственный заменитель ванили, является побочным продуктом целлюлозно-бумажной промышленности.

Такого вида как пантера не существует. Пантерами называют «в народе» черных ягуаров или леопардов. У черных пантер тоже есть пятна, просто они хуже видны. У белых медведей черная кожа и прозрачный мех. А белые они потому же, почему облака белые. У дятлов язык раза в четыре длиннее клюва, поэтому он обвит вокруг черепа и может вытягиваться. Язык европейского зелёного дятла спускается в горло, тянется через заднюю часть шеи, вокруг задней части черепа под кожей, по темени между глазами, заканчивается обычно прямо под глазницей. У некоторых дятлов язык выходит из черепа между глазами и входит в клюв через одну из ноздрей.

А у муравьеда язык прикреплён к грудине, между ключиц. Слоны – единственные животные, у которых четыре полноценных коленных сустава. Коалы имеют отпечатки пальцев, которые почти неотличимы от человеческих. У акул нет костей. Из ближайшие родственники — скаты. Крокодилы могут не есть целый год (но грустят). Зебры чёрные с белыми полосами, а не наоборот (белые появляются на чёрной коже). 1% людей имеет шейные рёбра. Кальмары, каракатицы осьминоги могут редактировать свою РНК «на лету».

Оказывается, Рене Декарт для России придумал декартову систему координат, а для всего остального мира — картезианскую. Потому что имя Декарта — Descartes, то есть Des Cartes, соответственно — Cartesian.

Мозг и большие языковые модели: Путеводитель по предсказательной обработке | 09 февраля 2025 года, 21:39

Я тут подумал, что понимание, как работают большие языковые модели (LLM; типа ChatGPT) объясняет как вероятно работает наш (по крайней мере мой) мозг и наоборот, наблюдение за тем, как работает мозг, может дать лучшее понимание, как тренировать LLM.

Ну вы знаете, что в основе LLM лежит простая логика — подбор подходящего следующего слова после N известных, образующих «контекст». Для этого LLM обучают на гигатском корпусе текстов, чтобы показать, какие слова идут ОБЫЧНО после каких в каком контексте.

Так вот когда изучаешь любой английский язык, по сути, этот этап тоже неизбежен. Нужно сталкиваться с потоком слов в любом виде — письменном или устном, чтобы мозг обнаружил и усвоил закономерности просто через наблюдение или слушание (а лучше и то, и то — мультимодальность).

В LLM за единицу берутся вообще не слова, а токены — слова и часто части слов. После обработки этого огромного корпуса текстов оказалось несложным найти просто наиболее частые последовательности, которые конечно оказались где-то словами, а где-то частями слов. Так вот, когда начинаешь говорить что-то на иностранном языке, особенно с системой окончаний, начинаешь произносить начало слова, и мозг в этот момент кипит над «вычислением» окончания.

Когда мы читаем текст или слушаем, мы на самом деле не разбираем слова по буквам, потому что очень часто там просто пропадают важные куски из-за быстрой или невнятной речи, опечаток. Но мозгу вообще не надо перебирать все слова, выглядящие или звучащее как данное, ему нужно понять, совпадает ли что услышано или увидено с очень ограниченным набором слов, которые в принципе могут стоять после предыдущего слова.

Отдельная история с целыми фразами. В нашем мозгу они образуют единый «токен». То есть, не разбиваются по отдельным словам, если специально об этом не думать. И такие токены тоже идут в потоке не случайно — мозг их ожидает, и как только слышит или видит знаки, что фраза появилась, дальше круг вариантов сужается до буквально 1-2 возможных фраз с таким началом и все, какая-то одна из них является тем, что и сказано или написано.

Но самое интересное, что недавнее исследование показало: человеческий мозг действительно работает очень похоже на LLM. В работе «The neural architecture of language: Integrative modeling converges on predictive processing» ученые MIT показали, что модели, которые лучше предсказывают следующее слово, также точнее моделируют активность мозга при обработке языка. То есть механизм, используемый в современных нейросетях, не просто вдохновлен когнитивными процессами, а реально отражает их.

В эксперименте анализировались данные fMRI и электрокортикографии (ECoG) во время восприятия языка. Исследователи обнаружили, что лучшая на тот момент предсказательная модель (GPT-2 XL) могла объяснять почти 100% объяснимой вариации нейронных ответов. Это значит, что процесс понимания языка у людей действительно строится на предсказательной обработке, а не на последовательном анализе слов и грамматических конструкций. Более того, именно задача предсказания следующего слова оказалась ключевой — модели, обученные на других языковых задачах (например, грамматическом анализе), хуже предсказывали мозговую активность.

Если это правда, то ключ к fluent чтению и говорению на иностранном языке — это именно тренировка предсказательной обработки. Чем больше мозг сталкивается с потоком естественного языка (как письменного, так и устного), тем лучше он может формировать ожидания о следующем слове или фразе. Это также объясняет, почему носители языка не замечают грамматических ошибок или не всегда могут объяснить правила — их мозг не анализирует отдельные элементы, а предсказывает целые паттерны речи.

Получается, если хочется говорить свободно, нужно не просто учить правила, а буквально погружать мозг в поток языка — слушать, читать, говорить, чтобы нейросеть в голове натренировалась предсказывать слова и структуры так же, как это делает GPT.

При этом, есть гипотеза предсказательного кодирования, утверждающая, то в отличие от языковых моделей, предсказывающих только ближайшие слова, человеческий мозг формирует предсказания на разных уровнях и временных масштабах. Ее проверяли уже другие ученые (гуглите Evidence of a predictive coding hierarchy in the human brain listening to speech).

Короче, о чем там. Мозг работает не только на предсказание следующего слова, но как бы запускается несколько процессов разного «разрешения». Височная кора (низший уровень) предсказывает краткосрочные и локальные элементы (звуки, слова). Лобная и теменная кора (высший уровень) предсказывает долгосрочные и глобальные языковые структуры. Семантические прогнозы (смысл слов и фраз) охватывают более длительные временные интервалы (≈8 слов вперёд). Синтаксические прогнозы (грамматическая структура) имеют более короткий временной горизонт (≈5 слов вперёд).

Если попробовать перенести эту концепцию в архитектуру языковых моделей (LLM), можно улучшить их работу за счёт иерархической предсказательной системы. Сейчас модели типа GPT работают с фиксированным контекстным окном — они анализируют ограниченное количество предыдущих слов и предсказывают следующее, не выходя за эти рамки. Однако в мозге предсказания работают на разных уровнях: локально — на уровне слов и предложений, и глобально — на уровне целых смысловых блоков.

Один из возможных способов улучшить LLM — это добавить в них механизм, который будет одновременно работать с разными временными горизонтами.

Интересно, можно ли настроить LLM так, чтобы одни слои специализировались на коротких языковых зависимостях (например, соседних словах), а другие — на более длинных структурах (например, на смысловом содержании абзаца). Я гуглю, что-то похожее есть в теме по «hierarchical transformers», где слои взаимодействуют между собой на разных уровнях абстракции, но там все-таки это больше для обработки супердлинных документов.

Как я понимаю, проблема с тем, что для такого нужно с нуля обучать фундаментальные модели, и наверное, это не очень работает на неразмеченном или плохо размеченном контенте.

Другой вариант — использовать многозадачное обучение, чтобы модель не только предсказывала следующее слово, но и пыталась угадать, о чём будет ближайшее предложение или даже целый абзац. Вроде как, опять же, гуглеж показывает, что это можно реализовать, например, через разделение голов (attention heads) в трансформере, где одни части модели анализируют короткие языковые зависимости, а другие прогнозируют более долгосрочные смысловые связи. Но как только я погружаюсь в эту тему, у меня взрывается мозг. Там все реально сложно.

Но возможно, если удастся встроить в LLM такую многоуровневую систему предсказаний, то они смогут лучше понимать контекст и генерировать более осмысленные и согласованные тексты, приближаясь к тому, как работает человеческий мозг.

Буду в марте на конференции по теме, нужно будет поговорить с учеными мужами.

Радиоуглеродный анализ: наследие ядерных испытаний | 09 февраля 2025 года, 14:35

Оказалось, что ядерные испытания 1955-1963 года на всей Земле оставили отпечаток во всех живых организмах, и ученые могут таким образом определять возраст клеток любого живого (тогда) существа на Земле и частоту их обновления, что без ядерных испытаний было бы это сделать заметно сложнее. Есть даже специальный термин «C-14 bomb-pulse dating».

Вот как такой радиоуглеродный анализ работает. С 1955 по 1963 год использование атомных бомб удвоило количество углерода-14 в атмосфере. Атмосферный углерод-14, который обычно образуется только под воздействием космического излучения, реагирует с кислородом, образуя диоксид углерода (¹⁴CO₂). Этот ¹⁴CO₂ поглощается растениями в процессе фотосинтеза и передаётся в организм человека непосредственно через растительную пищу и опосредованно через мясо животных, при этом его количество примерно соответствует концентрации в атмосфере. Животные едят эти растения, мы едим этих животных – и углерод-14 оказывается в наших телах, встраиваясь в наши ткани.

Большинство тканей в живых организмах постепенно обновляются в течение недель или месяцев, поэтому содержание углерода-14 в них соответствует текущему уровню в атмосфере. Однако ткани, которые либо не обновляются, либо обновляются очень медленно, будут содержать уровень углерода-14, близкий к тому, который был в атмосфере на момент их формирования. Таким образом, измеряя содержание углерода-14 в тканях людей, живших во время и после пика «бомбового импульса», можно точно оценить скорость замены определённой ткани или её компонентов.

Это означает, что случайным образом ядерные испытания предоставили учёным способ понять, когда формируются ткани, как долго они сохраняются и с какой скоростью заменяются.

Оказывается, практически каждое дерево, жившее с 1954 года, содержит «всплеск» – своеобразный сувенир от атомных бомб. Где бы ботаники ни искали, они находят этот маркер. Есть исследования в Таиланде, исследования в Мексике, исследования в Бразилии – где бы вы ни измеряли уровень углерода-14, он там есть. Все деревья несут этот «маркер» – деревья северных широт, тропические деревья, деревья дождевых лесов – это общемировой феномен.

Но есть загвоздка. Каждые одиннадцать лет количество углерода-14 в атмосфере уменьшается наполовину. Как только уровень углерода-14 вернётся к исходному значению, этот метод станет бесполезным. Scientific American поясняет, что «у учёных есть возможность использовать этот уникальный метод датирования лишь несколько десятилетий, пока уровень углерода-14 не вернётся к норме». Это означает, что если они хотят воспользоваться этим методом, им нужно торопиться. Если только не произойдут новые ядерные взрывы – но этого никто не хочет.

Кроме прочего, это позволяет определять возраст человека по зубам и волосам. Как только зуб формируется, количество углерода-14 в его эмали остается неизменным, что делает его идеальным инструментом для датировки человека. Поскольку определенные зубы формируются в конкретные возрастные периоды, измерение содержания 14C в различных зубах может помочь исследователям оценить диапазон годов рождения. С волосами тоже самое, только они растут около 1 см в месяц, и по содержанию в разных частях волоса можно тоже делать выводы.

Для датировки углерода в зубах требуется около одной трети целого зуба, или 100 миллиграммов. Для подготовки образца его измельчают и растворяют в кислоте, что высвобождает CO2. При работе с волосами вместо растворения их в кислоте их сжигают. Поскольку волосы имеют высокое содержание углерода, требуется всего 3-4 миллиграмма волос. CO2 из образца зуба или волос затем восстанавливают до графита — кристаллической формы углерода — и помещают в ионный источник в CAMS, где нейтральные атомы графита превращаются в ионы путем придания им отрицательного заряда. Затем ускоритель может использовать этот отрицательный заряд для ускорения образца, что позволяет обнаруживать, подсчитывать и сравнивать соотношения атомов разных изотопов углерода. На графиках pMC — это отношение концентраций.

В 1960-х годах, когда концентрация C-14 резко менялась, метод позволял определять возраст тканей с точностью до ±1 года. Однако после 2000 года, по мере выравнивания уровня C-14, точность снизилась до ±2–4 лет.

Как ваши данные уходят к третьим сторонам через приложения | 08 февраля 2025 года, 16:20

Недавно наткнулся на интересное исследование на сайте Timsh org, где автор разобрал, как приложения собирают и передают ваши данные. В эксперименте использовалось старое устройство iPhone и перехват трафика. На телефон было установлено условно некоторое рандомное приложение — для эксперимента это был Stack от KetchApp. Автор перехватывал траффик и смотрел, что передается из приложения во внешний мир. А передавалось очень много всего даже при ответе «нет» на вопрос «Allow tracking?».

В частности, IP-адрес (что позволяет определить ваше местоположение через обратный DNS), приблизительная геолокация (даже с отключенными службами геопозиции),

модель устройства, уровень заряда батареи, уровень яркости экрана, количество свободной памяти и другие параметры.

Данные уходят конечно не в компанию-автор приложения, а неким третьим сторонам. То есть, эти третьи стороны собирают данные с большинства приложений на вашем телефоне, причем потоки идут каждый раз, когда приложение работает.

Автор пишет о двух крупных группах игроков — SSP и DSP.

К SSP (Supply-Side Platforms) относятся те, что собирают данные из приложения — Unity Ads, IronSource, Adjust. Есть также DSP (Demand-Side Platforms), которые управляют рекламными аукционами, это Moloco Ads, Criteo.

Рекламодатели получают доступ к данным через DSP. Брокеры данных — агрегируют и продают данные. Например, Redmob, AGR Marketing Solutions. Причем последний продает базы данных с PII, включая имя, адрес, телефон и даже рекламные идентификаторы (IDFA/MAID).

Какие данные отправляются? Вот к примеру тот Slack от KetchApp слал в Unity Ads геолокацию (широта, долгота), IP-адрес (включая серверные IP, например, Amazon AWS), уникальные идентификаторы устройства: IDFV (идентификатор для конкретного разработчика) и IDFA (рекламный идентификатор), а также такие доп параметры как модель телефона, уровень заряда, состояние памяти, яркость экрана, подключение наушников и даже точное время загрузки системы.

У DSP для продажи информации есть система RTB (real-time bidding). Данные из приложения передаются через SSP (например, Unity Ads), а затем в DSP (например, Moloco Ads), где в реальном времени проводятся аукционы для показа релевантной рекламы. На каждом этапе данные передаются десяткам, а то и сотням компаний.

Да, отвечая «Не хочу делиться данными», вы отключаете только отсылку IDFA (рекламный идентификатор), но при при этом другие данные, такие как IP-адрес, User-Agent и геолокация, и все эти модель телефона и свободная память, все равно передаются. Совместно они являются таким же фингерпринтом в моменте, как и рекламный идентификатор. Приложения при желании все равно могут вас идентифицировать по множеству параметров: IP-адресу, модели устройства, версии ОС, шрифтам, разрешению экрана, уровню батареи, часовому поясу и другим данным, так как получают эту информацию с сотни других мест. Другой вопрос, что «конечным приложениям» это не надо, это не бесплатно же, но тем, кто через них показывает вам рекламу это надо, и у них эта инфа есть. Ну и всякие спецслужбы легко могут получить доступ при необходимости, разумеется.

Если вы используете несколько приложений одного разработчика, идентификатор IDFV позволяет связать данные из всех приложений.

Наверное, это не секрет совсем, но в Facebook (Meta) отправляют данные почти все, при том, что у пользователя никто согласия не спрашивает. То есть, если у вас на телефоне есть фейсбук, то все, бинго, любые данные из любых других приложений начинают быть помеченными вашим профилем, даже, если вы в тех приложениях запретили делиться информацией.

Компании обмениваются пользовательскими данными друг с другом. Например, Facebook обменивается информацией с Amazon, Google, TikTok, а мобильные SDK (например, Appsflyer, Adjust) делают перекрестную привязку пользователей между разными сервисами, потому что такой обмен повышает цену и качество информации сразу у всех участников обмена. Таким образом, удаление одного приложения не мешает вашим данным «путешествовать» между разными платформами.

Заодно выяснилось, что Unity, который вообще-то 3D движками занимается для игр, в основном зарабатывает на продаже вот этих собираемых данных. Конкретно в 2023 году у них был доход с этого направления $2 млрд («Mobile Game Ad Network»). В 2022 году Unity поглотил IronSource — еще одного гиганта мобильной рекламы. IronSource занимается анализом поведения пользователей и оптимизацией монетизации, а также продажей данных рекламодателям. Теперь Unity через LevelPlay может управлять не только размещением рекламы, но и агрегацией данных, продавая их другим компаниям.

Большая часть мобильных игр создается на Unity, особенно free-to-play игры. Это позволяет Unity иметь доступ к данным с миллионов устройств по всему миру, даже без явного согласия пользователя. Разработчики часто не знают, насколько глубоко Unity отслеживает данные в их играх.

Вывод: отключение рекламы или запрет трекинга на уровне ОС — это всего лишь небольшое препятствие. Данные о вас все равно собираются, анализируются и передаются сотням компаний.

Ссылочку смотрите ниже

Гуляя с Юки: Зимний день у пруда | 08 февраля 2025 года, 15:13

Гуляю с Юки. Некоторые утки долго не шевелятся. Наверное, у них такая игра.

Прилетели нам пруд, а тут ещё лёд. Видимо, пёрышки грязные, и им грустно