green_fr: (Default)
[personal profile] green_fr
Статья об опасности подхода mieux vaut prévenir que guérir (лучше предотвратить проблему, чем с ней потом разбираться). Цитируют историю с антеннами мобильной связи в Saint Cloud, вызвавшими головные боли у местных жителей. С уточнением, что головные боли появились после установки антенн, но до их подключения к сети. Чистая психосоматика. Плюс вполне формальное исследование людей, чувствительных к различному излучению (от WiFi до IRM), которые реагируют точно так же на включенную лампочку от аппарата, даже если сам аппарат выключен. Следующее исследование, показывающее рост подобной чувствительности к излучениям после просмотра ТВ-передачи о вредности этого излучения (я бы назвал это эффектом Джером-Джерома). И задаются вопросом — насколько опасность обсуждения может перебить опасность обсуждаемого? И если да, то что нам с этим делать? Отличные вопросы!


Я когда-то рассказывал об увлекательном (ваше здоровье!) исследовании физики вылетающей пробки из-под шампанского. Авторы не остановились на достигнутом: в прошлой статье они задавались вопросом, почему «дымок» из горлышка бутылки может быть синеватого цвета (обычно белый) — в этом номере загадка, наконец-то, разгадана (ваше здоровье!). Эффект и вправду очень интересный. Дымок — на самом деле туман — появляется из-за перепада температур, который происходит из-за перепада давлений (резкое расширение газа = охлаждение). Чем выше температура шампанского в бутылке => тем больше давление газа в горлышке => тем больший перепад давления с атмосферным => тем ниже опустится температура газа. При температуре вина в 6°C газ охлаждается до −77°C, при 12°C — уже до −83°C, при 20°C — до −89°C. И разница принципиальная, потому что примерно на −80°C (при атмосферном давлении) углекислый газ переходит из газообразного состояния в твёрдое. То есть, синеватый цвет — результат рассеяния света на снежинках углекислого газа.


Статья о нейронных сетях распознавания образов. Все видели, наверное, картинки-обманки, когда на фотографии с жирафом меняется пара пикселей — и сеть начинает распознавать в этой картинке, скажем, автомобиль. Статья о том, что учёные не только нашли такие картинки, но и попытались понять, как это работает. И у них получилось не просто написать программу, которая подгоняет любую картинку под любой результат (для заранее определённой сети, конечно же), но и сделать физический объект, любые фотографии которого будут ошибочно распознаваться сетью. То есть, говорят авторы, теоретически можно сделать знак «Стоп», который будет уверенно распознаваться, как зелёный свет светофора. Прекрасная новость, я считаю!


Просто поразивший меня факт. Суммарная длина молекул ДНК человека в одной клетке — 2 метра.

Date: 2018-10-05 08:34 am (UTC)
From: [identity profile] wildest-honey.livejournal.com
про нейронные сети и их ошибки нам лекцию читал мальчик, который на этом сейчас докторскую защитил. очень пугает на самом деле. Поэтому и растет потребность все-таки понимать как сеть принимает решение. Черный ящик перестает устраивать.

Date: 2018-10-05 08:40 am (UTC)
From: [identity profile] green-fr.livejournal.com
Эти сети как раз можно проследить шаг за шагом. Просто логика странная - будет тебе правило типа "пиксель 2-83 отличается не более чем на 18% от пиксела 35-44". Правило чётко определено, но что оно даст тебе в понимании? Тут вопрос скорее о том, как мы понимаем, что "стоп" - это "стоп". А это формализовать практически невозможно (у нас в институте была забава - искать, чем формально отличается внешне собака от кошки).

Понимаешь, о чём я? Пока мы не можем понять, как работает наш мозг, мы не можем сделать такую же крутуя структуру. А значит, всё, что мы будем делать - будет работать по непонятным нам (неприемлемым нами) правилам, типа описанного выше. Как следствие - возможность таких вот ловушек. Неизбежно.

Меня скорее убила возможность создания физических предметов-ловушек!

Date: 2018-10-05 08:43 am (UTC)
From: [identity profile] wildest-honey.livejournal.com
ну лично мне "пиксель 2-83 отличается не более чем на 18% от пиксела 35-44" сразу говорит о том, что мой алгоритм не инвариантен к трансляции и повороту, а значит то, на чем учили было слишком лимитированное и надо менять и вводить большую вариацию. и многие другие похожие выводы сети говорят об ошибках или overfitting

да, физические предметы - это новый уровень

Date: 2018-10-05 12:17 pm (UTC)
From: [identity profile] green-fr.livejournal.com
Так это простой пример. Он делается сетью с одним уровнем. Вторым уровнем уже можно сделать правило "разница между пикселями X1 и X2 больше, чем среднее между пикселями X3 и X4". И таки да, такого уровня сети уже могут натренироваться уверенно распознавать и с поворотом, и с любого угла, и с голубем посреди кадра :-)
Я только что баловался с сетью, распознающей рукописные цифры. Реально в шоке, как она это распознаёт - а вот распознаёт как-то. При том, что у меня есть и структура сети, и все её веса-коэффициенты. То есть, я могу на бумажке сам всё посчитать, проследить, и получить тот же правильный результат.

Date: 2018-10-05 12:23 pm (UTC)
From: [identity profile] wildest-honey.livejournal.com
сейчас есть возможность отследить не простые сети и визуализовать что именно он находит, и это помогает отловить то, что я описывала выше. я про такие случаи, которые совпали с твоим примером в каком-то смысле

Date: 2018-10-05 11:49 pm (UTC)
From: [identity profile] yba.livejournal.com
Распознавание сетью (как и человеком кстати) всегда вероятностное. Видимо распознавающие алгоритмы превзойдут людей если еще не превзошли.
Но такова человеческая природа - ожидать что роботы никогда не будут ошибаться, что конечно недостижимо
Edited Date: 2018-10-05 11:49 pm (UTC)

Date: 2018-10-06 07:28 am (UTC)
From: [identity profile] wildest-honey.livejournal.com
Объясню в моей области (именно про картинки: распознавание, сегментация и тп). Есть два типа алгоритмов: обычные, написанные людьми, и нейронные сети. Нейронные уже во многих приложениях лучше (но редко когда быстрее). Разница в том, что когда не срабатывает первый тип алгоритмов, то всегда можно объяснить какое из предположений не сработало и позволяет оценить на сколько это критично на практике. С сетями это чаще всего невозможно. Ну вот пример: учили сеть отличать врачей от другого медперсонала. Хорошо работала, а потом выяснилось, что она просто отличала мужчин от женщин. Устраивает нас такой алгоритм? Приняли бы мы его если бы написали сами такой?

Date: 2018-10-05 08:50 am (UTC)
From: [identity profile] leokand.livejournal.com
По первому пункту знакомо. В начале 2000-х руководство кондоминиума дома, где я тогда жил, договорилось, что на крыше установят ретранслятор сотового оператора. Жильцы сколотили инициативную группу по недопущению этого: орали, что ужасужасмывсеумрём! Какая-то тётка лет 50-ти визжала, что у неё сбои месячных из-за сотового оборудования. Один идиот подал в суд (!) жалобу на то, что сотовое оборудование может воздействовать на пролетающие спутники (!!) и суд признал его правоту (!!!) Интересно то, что оборудование не только ещё не подключили, но даже ещё и не завезли. В результате, кондоминиум расторг договор и оборудование установили на соседнем доме. А та же тётка потом так же визжала и возмущалась, что нет денег на ремонт подвала. Кретины.

Date: 2018-10-05 09:00 am (UTC)
From: [identity profile] grave--digger.livejournal.com
Что-то от меня ускользает суть "предотвращения проблемы" в первом абзаце. В чём оно там состоит?

Статья про нейронные сети напомнила анекдот про баню и шкаф. То есть, я понимаю несовершенство современных нейросетей и то, что ежели один человек построил, другой завсегда разобрать может. :) Но хотелось бы всё-таки взглянуть на знак "Стоп", который специально обученная для соблюдения ПДД нейросеть может принять за зелёный свет.

Date: 2018-10-05 12:12 pm (UTC)
From: [identity profile] green-fr.livejournal.com
Ну, в смысле - давайте громко обсуждать потенциальную проблему до того, как на нас свалятся её последствия. Обычно это правильная стратегия - лучше не заниматься переучиванием, а сразу учить правильно, например. Но в случае проблемы более чем потенциальной, да ещё и в присутствии психосоматики - публичное обсуждение проблемы может стать серьёзнее её самой.

Date: 2018-10-05 12:13 pm (UTC)
From: [identity profile] green-fr.livejournal.com
По поводу стопа и светофора - идеи пока что теоретические, но жираф за автомобиль сети уже принимают. Если не видел - могу поискать, такого рода статей в инете сейчас полно.

Date: 2018-10-05 09:01 am (UTC)
From: [identity profile] muh2.livejournal.com
Как-то приведенный пример мне не представляется случаем "mieux vaut prévenir que guérir". Или имеется в виду двойное толкование слова "предупреждать"?

А я вот читал книгу в которой утверждалось, что для некоторых видов рака раняя диагностика в лучшем случае не улучшает прогноз продолжительности жизни. Поскольку 90% раков на ранней стадии так на ранней стадии и остаются навсегда, а когда их начинают лечть, пациента портят всякие побочные эффекты.

Date: 2018-10-05 12:13 pm (UTC)
From: [identity profile] green-fr.livejournal.com
Красивый пример!

Date: 2018-10-05 06:20 pm (UTC)
From: [identity profile] anjey.livejournal.com
В "The Emperor of All Maladies" упоминалось, что зачастую отсутствие прогреса в лечении некоторых видах раках маскируется "успехами" в продолжительности жизни после диагностики. Типа, 20 лет назад больные с таким то типом рака жили Х месяцев, а теперь Х+У, забывая упомянуть, что на эти У месяцев научились диагностировать раньше.

Date: 2018-10-05 09:34 am (UTC)
From: [identity profile] birdwatcher.livejournal.com
Спасибо! Прямо на днях выпускал на улице остатки углекислого газа из баллона, и отчетливо видел бьющую из него синюю струю. Совершенно не надеялся так быстро узнать, почему!

Date: 2018-10-05 12:14 pm (UTC)
From: [identity profile] green-fr.livejournal.com
Давай подробности! Я пытаюсь представить себе, при каких обстоятельствах мне пришлось бы "выпускать на улице остатки углекислого газа из баллона" - не могу :-)

Date: 2018-10-05 12:22 pm (UTC)
From: [identity profile] birdwatcher.livejournal.com
Ну, смотришь дома на баллон, и видишь, что давление чуть-чуть упало. Это значит, что внутри не осталось жидкости и он практически пустой. Берешь еще один пустой и едешь менять на полные. Рядом с магазином места нет, паркуешься в другом квартале. Пока тащишь баллоны, думаешь - о, выпущу газ, будет на несколько грамм легче нести, и шипит прикольно.

Date: 2018-10-05 12:23 pm (UTC)
From: [identity profile] green-fr.livejournal.com
А сам баллон-то зачем? Газировку дома делаете, что ли?

Date: 2018-10-05 12:27 pm (UTC)
From: [identity profile] birdwatcher.livejournal.com
Ну, например, для аквариумных растений. Или чтобы наливать пиво из бочки.

Date: 2018-10-05 12:29 pm (UTC)
From: [identity profile] green-fr.livejournal.com
Неожиданно, но да, правда! Но я никогда не сталкивался у себя дома ни с одним из трёх применений :-)

Date: 2018-10-05 12:39 pm (UTC)
From: [identity profile] muh2.livejournal.com
Не далее, как сегодня ночью, перебив в спальне комаров, размышлял - а нельзя ли их приманивать углекислым газом, вроде они на него летят. И сетовал на отсуствие дома балона с углекислым газом. А в каком магазине их дают? Фауна/флора?

Date: 2018-10-05 12:47 pm (UTC)
a_p: (Default)
From: [personal profile] a_p
Кстати, самое трудное в задаче классификации клеток - не отличить клетки типа "А" от клеток типа "Б", а не впутать туда всякий мусор (посчитав его либо за А либо за Б). И понятно, что, как бы ни был изощрён классификатор, на него непременно найдётся мусор, который он перепутает с клеткой (потому что классификатор использует для классификации конечный набор параметров объекта, а мусора может быть бесконечно много вариаций :). При этом человеческий классификатор (обученный техник) тоже время от времени ошибается (мы знаем об этом, потому что классификация, сделанная разными техниками, не всегда совпадает).
А шокирующий момент с нейронно-сетевыми классификаторами связан с тем, что они (в отличие от построенных человеком) припахивают "нерелевантные" на человеческий взгляд фичи. (Поэтому над нейронной сетью нужно поставить супернейронную суперсеть, чтобы она выбирала фичи, как человек :).

Date: 2018-10-09 10:28 am (UTC)
From: [identity profile] grey-horse.livejournal.com
И задаются вопросом — насколько опасность обсуждения может перебить опасность обсуждаемого?
А что, если эту статью было безопаснее не публиковать? :)

Date: 2018-10-09 11:58 am (UTC)
From: [identity profile] green-fr.livejournal.com
Вот-вот. Ещё лучше - когда гарантированный вред сталкивается с гипотетическим. Свобода слова против государственной или коммерческой тайны. Богатая тема.

Profile

green_fr: (Default)
green_fr

May 2025

S M T W T F S
    1 23
4 5 678910
11 12 1314 15 1617
18192021222324
25262728293031

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated May. 25th, 2025 06:38 am
Powered by Dreamwidth Studios