green_fr: (Default)
[personal profile] green_fr
Интервью с палеонтологом, обнаружившим самую старую рвоту / отрыжку в мире — 290 миллионов лет, ещё до динозавров. Рассказывает о том, как редко находится окаменевшая рвота (полезное в повседневной жизни слово régurgitalithe, надо запомнить), и что в этом случае повезло — животное стошнило на берегу реки, и достаточно быстро рвоту покрыл речной ил.


Классная статья о том, как учёные пытаются найти звезду «населения III» (очень странный перевод, я ожидал термин вроде «поколения»). В двух словах: по содержанию металлов в звезде астрономы различают «население III» — это самые старые звёзды, практически только из водорода, они активно его перерабатывали и в какой-то момент (в течение первого миллиарда лет после Большого взрыва) взорвались, распространив синтезированные металлы в окружающую среду. В звёздах «населения II» — следующее поколение — металлы уже появляются. Ну а «привычные» нам звёзды — это «население I».

По определению, если мы ищем на небе звезду, которая жила более 13 миллиардов лет назад, нужно смотреть далеко, примерно на 13 миллиардов световых лет. Понятно, что нет у нас таких телескопов, но тут на помощь приходят гравитационные линзы. Я уже читал о них — гравитация точно так же искажает траекторию света, как и обычная линза, и при некотором везении можно увидеть звезду, находящуюся строго за массивным предметом, потому что он её увеличивает как линза. Ну и дальше статья о том, какие далёкие / старые звёзды удалось обнаружить, и что надеются открыть в ближайшее время.




Длинное интервью с учёным, занимающимся исследованием сознания и сна. Меня удивило то, с какой лёгкостью он ответил «это устаревшая гипотеза» на вопрос о том, правда ли, что наши сны прокручиваются у нас в мозгу не «в прямом эфире», а формируются буквально «за секунду до пробуждения», а то и достраиваются после пробуждения. Я далёк от этой темы (интересно, но не представляю возможным в ней разобраться — жизнь слишком коротка), и мне эта «устаревшая» гипотеза наоборот казалась доминирующей.


В рубрике про книги интервью с автором «Faut-il encore décider ?» - насколько реально переложить принятие решений на ИИ, и если да, то каких решений? Очевидный пример с медициной, где уже давно научились различать принятие решения от ответственности за принятие решения — ИИ может принимать решение, но ответственность несёт врач. И автор книги призывает не к тому, чтобы врач проверял каждое решение ИИ (он чётко говорит, что это привело бы к ухудшению результата), а чтобы врач контролировал ИИ, постоянно проверял, что ИИ всё ещё можно доверять. Интересный подход!

Другой очевидный пример: правосудие. Нас (общество) там интересует не только результат, но и процесс. Представьте себе, говорит, что вместо суда над убийцей (приводят пример недавнего процесса над разжигателями ненависти, приведшей к убийству Самюэля Пати). Очевидно, что если бы у нас был очень качественный ИИ с кнопкой «прочитать все документы и вынести вердикт», и даже если бы этот вердикт в точности совпал бы с тем, что в итоге решили судьи, — обществу нужен не только вердикт, ему нужен процесс, обсуждение, дискуссия.

Среди того, что мешает сегодня обществу перекладывать всё больше и больше решений на ИИ, автор называет отсутствие обсуждения алгоритмов. Вот взять ParcourSup (что-то типа «распределительной шляпы» во французской системе образования, когда выпускники пишут, куда бы они хотели поступить, ВУЗы пишут, кого бы они хотели принять, а алгоритм крутит-вертит и выдаёт, кто куда поступил). Это несомненный прогресс с точки зрения эффективности — и времени люди тратят меньше, и результат в общем получается лучше, какую бы объективную меру результата мы ни выбрали. И даже сам алгоритм публичный. Но при этом в обществе устойчивое отторжение, потому что мало кто затрудняет себя хотя бы попытаться разобраться в том, как на самом деле работает этот алгоритм, да и власти, принявшие решение о его введении, не занимались общественным обсуждением.

А ещё интересная тема о том, как уже сегодня можно использовать генеративные ИИ. Понятно, что отдавать им принятие решений ещё рано, если вообще когда-то будет возможно. Но зато можно использовать их в качестве критика собственных идей, «адвоката дьявола». Понять, насколько мы способны защитить собственные идеи хотя бы перед критикой ИИ — ну или обнаружить дырку в собственных рассуждениях.

Date: 2026-05-12 11:32 am (UTC)
p_govorun: (Default)
From: [personal profile] p_govorun
Тут надо пояснить: металлы в звёздах -- это всё, что не водород и не гелий. Такая вот у астрфизиков терминология.

Date: 2026-05-12 07:55 pm (UTC)
From: [personal profile] random_dude
Проблема что с алгоритмом, что с ИИ в том, что на самом деле публика, врачи и тп имеют дело не с чистой сущностью, а 1) с имплементацией, а не идеальным алгоритмом 2) крутящейся на чужих серверах. Я не знаю деталей французской системы распределения, может быть люди постарались и сделали полностью контролируемый, аудируемый и так далее процесс -- но я бы удивился. А без этого где гарантии, что реальная система работает честно?

С ИИ мы тоже имеем дело с фигней, которая контролируется другими. Мало что модели меняются на ходу, там есть еще куча степеней свободы которые крутят владельцы сервиса. Слышали, может, как Antropic подкрутили токенизатор и при прочих равных задачи стали жрать вдвое больше токенов? Это чисто LLM, а в современных AI-приложениях, где есть агенты, таких слоев много.

То есть если по-серьезному (а по другому смысла нет) заморочится с проверяемостью, то все довольно сложно. Вендор AI может понять, что его проверяют, и подкрутить ответ; более того это может сделать и сам AI. Да и как его проверять, написать набор автотестов? они утекут в сеть через неделю и новая модель будет их проходить со 100% результатом. Или с 86% результатом если разработчики решат что 100% это overfit.

Date: 2026-05-12 08:12 pm (UTC)
dennisgorelik: 2020-06-13 in my home office (Default)
From: [personal profile] dennisgorelik
> как его проверять, написать набор автотестов?

Да. Причём регулярно дописывать тесты.

> они утекут в сеть через неделю

Не публиковать [некоторые] тесты.
А если тесты утекли - дописать новые тесты.

Date: 2026-05-12 08:43 pm (UTC)
dennisgorelik: 2020-06-13 in my home office (Default)
From: [personal profile] dennisgorelik
> По-моему, гораздо проще контролировать всю систему.

Почему это проще?
Обычно, тесты написать и дописывать - намного проще, чем контролировать всю систему.

> Контролировать, на каких данных и какими алгоритмами обучалась каждая новая система.

Такой контроль (данных и алгоритмов) - совершенно не гарантирует правильности работы системы.
Тесты дают более качественную гарантию.

Date: 2026-05-12 11:32 pm (UTC)
From: [personal profile] random_dude
"Система" в широком смысле находится вне нашего контроля уже довольно давно. Просто пересобрать бинарь два раза так, чтобы совпала контрольная сумма -- уже нетривиальная задача в наше время, потому что все зависимости нынче тянутся из интернета, а у них свои зависимости и это все расползается в пол-мира.
А уж с LLM все кратно хуже.
Обучение с нуля почти не используется, новые модели получают дистилляцией предыдущих, и как оказалось дистилляция не вполне дистилляция: https://alignment.anthropic.com/2025/subliminal-learning/

Date: 2026-05-13 08:56 am (UTC)
From: [personal profile] random_dude
А какой AI будет принимать решения в медицине?

Date: 2026-05-12 11:50 pm (UTC)
From: [personal profile] random_dude
Я имел в виду ваш ParcourSup. Кто, как его реально контролирует и аудирует.

А с медициной -- чисто практически, это же значит что Минздрав должен обрести компетенции, чтобы проконтролировать всю цепочку от компиляции до обучения и хостинга. Даже если речь просто о том, чтобы написать требования к сертификации.

А еще теоретические проблемы с тем чтобы объяснить путь принятия решения.

Date: 2026-05-13 08:54 am (UTC)
From: [personal profile] random_dude
Дак не в самом алгоритме дело, а в том кто его исполняет.

Проверять надо не только и не столько математику, сколько реализацию и всю цепочку реальную принятия решения -- вот тут у нас пришли даные N человек, отсюда вышли их результаты.

Date: 2026-05-12 08:09 pm (UTC)
dennisgorelik: 2020-06-13 in my home office (Default)
From: [personal profile] dennisgorelik
> обществу нужен не только вердикт, ему нужен процесс, обсуждение, дискуссия

Так ИИ ведь вполне может объяснить как именно ИИ пришел к своему вердикту.
И в дискуссии ИИ тоже может участвовать.

Date: 2026-05-12 08:46 pm (UTC)
dennisgorelik: 2020-06-13 in my home office (Default)
From: [personal profile] dennisgorelik
Какая связь между моим утверждением "И в дискуссии ИИ тоже может участвовать" и вашим утверждением 'когда-то появятся люди, для которых выговориться перед другими людьми ("перед всей страной") будет значить примерно то же, что выговориться перед ИИ'?

Это же два сильно разных утверждения.

Profile

green_fr: (Default)
green_fr

May 2026

S M T W T F S
     12
34 5 6 789
10 11 1213141516
17181920212223
24252627282930
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated May. 13th, 2026 11:50 am
Powered by Dreamwidth Studios