green_fr: (Default)
[personal profile] green_fr
Статья об опасности подхода mieux vaut prévenir que guérir (лучше предотвратить проблему, чем с ней потом разбираться). Цитируют историю с антеннами мобильной связи в Saint Cloud, вызвавшими головные боли у местных жителей. С уточнением, что головные боли появились после установки антенн, но до их подключения к сети. Чистая психосоматика. Плюс вполне формальное исследование людей, чувствительных к различному излучению (от WiFi до IRM), которые реагируют точно так же на включенную лампочку от аппарата, даже если сам аппарат выключен. Следующее исследование, показывающее рост подобной чувствительности к излучениям после просмотра ТВ-передачи о вредности этого излучения (я бы назвал это эффектом Джером-Джерома). И задаются вопросом — насколько опасность обсуждения может перебить опасность обсуждаемого? И если да, то что нам с этим делать? Отличные вопросы!


Я когда-то рассказывал об увлекательном (ваше здоровье!) исследовании физики вылетающей пробки из-под шампанского. Авторы не остановились на достигнутом: в прошлой статье они задавались вопросом, почему «дымок» из горлышка бутылки может быть синеватого цвета (обычно белый) — в этом номере загадка, наконец-то, разгадана (ваше здоровье!). Эффект и вправду очень интересный. Дымок — на самом деле туман — появляется из-за перепада температур, который происходит из-за перепада давлений (резкое расширение газа = охлаждение). Чем выше температура шампанского в бутылке => тем больше давление газа в горлышке => тем больший перепад давления с атмосферным => тем ниже опустится температура газа. При температуре вина в 6°C газ охлаждается до −77°C, при 12°C — уже до −83°C, при 20°C — до −89°C. И разница принципиальная, потому что примерно на −80°C (при атмосферном давлении) углекислый газ переходит из газообразного состояния в твёрдое. То есть, синеватый цвет — результат рассеяния света на снежинках углекислого газа.


Статья о нейронных сетях распознавания образов. Все видели, наверное, картинки-обманки, когда на фотографии с жирафом меняется пара пикселей — и сеть начинает распознавать в этой картинке, скажем, автомобиль. Статья о том, что учёные не только нашли такие картинки, но и попытались понять, как это работает. И у них получилось не просто написать программу, которая подгоняет любую картинку под любой результат (для заранее определённой сети, конечно же), но и сделать физический объект, любые фотографии которого будут ошибочно распознаваться сетью. То есть, говорят авторы, теоретически можно сделать знак «Стоп», который будет уверенно распознаваться, как зелёный свет светофора. Прекрасная новость, я считаю!


Просто поразивший меня факт. Суммарная длина молекул ДНК человека в одной клетке — 2 метра.

Date: 2018-10-05 08:34 am (UTC)
From: [identity profile] wildest-honey.livejournal.com
про нейронные сети и их ошибки нам лекцию читал мальчик, который на этом сейчас докторскую защитил. очень пугает на самом деле. Поэтому и растет потребность все-таки понимать как сеть принимает решение. Черный ящик перестает устраивать.

Date: 2018-10-05 08:40 am (UTC)
From: [identity profile] green-fr.livejournal.com
Эти сети как раз можно проследить шаг за шагом. Просто логика странная - будет тебе правило типа "пиксель 2-83 отличается не более чем на 18% от пиксела 35-44". Правило чётко определено, но что оно даст тебе в понимании? Тут вопрос скорее о том, как мы понимаем, что "стоп" - это "стоп". А это формализовать практически невозможно (у нас в институте была забава - искать, чем формально отличается внешне собака от кошки).

Понимаешь, о чём я? Пока мы не можем понять, как работает наш мозг, мы не можем сделать такую же крутуя структуру. А значит, всё, что мы будем делать - будет работать по непонятным нам (неприемлемым нами) правилам, типа описанного выше. Как следствие - возможность таких вот ловушек. Неизбежно.

Меня скорее убила возможность создания физических предметов-ловушек!

Date: 2018-10-05 08:43 am (UTC)
From: [identity profile] wildest-honey.livejournal.com
ну лично мне "пиксель 2-83 отличается не более чем на 18% от пиксела 35-44" сразу говорит о том, что мой алгоритм не инвариантен к трансляции и повороту, а значит то, на чем учили было слишком лимитированное и надо менять и вводить большую вариацию. и многие другие похожие выводы сети говорят об ошибках или overfitting

да, физические предметы - это новый уровень

Date: 2018-10-05 12:17 pm (UTC)
From: [identity profile] green-fr.livejournal.com
Так это простой пример. Он делается сетью с одним уровнем. Вторым уровнем уже можно сделать правило "разница между пикселями X1 и X2 больше, чем среднее между пикселями X3 и X4". И таки да, такого уровня сети уже могут натренироваться уверенно распознавать и с поворотом, и с любого угла, и с голубем посреди кадра :-)
Я только что баловался с сетью, распознающей рукописные цифры. Реально в шоке, как она это распознаёт - а вот распознаёт как-то. При том, что у меня есть и структура сети, и все её веса-коэффициенты. То есть, я могу на бумажке сам всё посчитать, проследить, и получить тот же правильный результат.

Date: 2018-10-05 12:23 pm (UTC)
From: [identity profile] wildest-honey.livejournal.com
сейчас есть возможность отследить не простые сети и визуализовать что именно он находит, и это помогает отловить то, что я описывала выше. я про такие случаи, которые совпали с твоим примером в каком-то смысле

Date: 2018-10-05 11:49 pm (UTC)
From: [identity profile] yba.livejournal.com
Распознавание сетью (как и человеком кстати) всегда вероятностное. Видимо распознавающие алгоритмы превзойдут людей если еще не превзошли.
Но такова человеческая природа - ожидать что роботы никогда не будут ошибаться, что конечно недостижимо
Edited Date: 2018-10-05 11:49 pm (UTC)

Date: 2018-10-06 07:28 am (UTC)
From: [identity profile] wildest-honey.livejournal.com
Объясню в моей области (именно про картинки: распознавание, сегментация и тп). Есть два типа алгоритмов: обычные, написанные людьми, и нейронные сети. Нейронные уже во многих приложениях лучше (но редко когда быстрее). Разница в том, что когда не срабатывает первый тип алгоритмов, то всегда можно объяснить какое из предположений не сработало и позволяет оценить на сколько это критично на практике. С сетями это чаще всего невозможно. Ну вот пример: учили сеть отличать врачей от другого медперсонала. Хорошо работала, а потом выяснилось, что она просто отличала мужчин от женщин. Устраивает нас такой алгоритм? Приняли бы мы его если бы написали сами такой?

Profile

green_fr: (Default)
green_fr

May 2025

S M T W T F S
    1 23
4 5 678910
11 12 1314 15 1617
18192021222324
25262728293031

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated May. 25th, 2025 06:43 pm
Powered by Dreamwidth Studios