<?xml version="1.0" encoding="utf-8"?> 
<rss version="2.0"
  xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd"
  xmlns:atom="http://www.w3.org/2005/Atom">

<channel>

<title>Product × Science: заметки с тегом Безопасность</title>
<link>https://pxs.md/tags/safety/</link>
<description>Статьи, которые так или иначе затрагивают вопрос создания «приемлемо» безопасных систем. Как нащупать «приемлимость» в такой деликатной сфере?</description>
<author></author>
<language>ru</language>
<generator>Aegea 11.4 (v4171e)</generator>

<itunes:owner>
<itunes:name></itunes:name>
<itunes:email>martsen.anton@yandex.ru</itunes:email>
</itunes:owner>
<itunes:subtitle>Статьи, которые так или иначе затрагивают вопрос создания «приемлемо» безопасных систем. Как нащупать «приемлимость» в такой деликатной сфере?</itunes:subtitle>
<itunes:image href="https://pxs.md/pictures/userpic/userpic-square@2x.jpg?1768130329" />
<itunes:explicit>no</itunes:explicit>

<item>
<title>Вебинар с Trisigma: Как оценивать качество AI-продуктов, которые оперируют в физическом мире</title>
<guid isPermaLink="false">68</guid>
<link>https://pxs.md/all/trisigma-webinar-analytics-for-autonomous-vehicles/</link>
<pubDate>Mon, 23 Mar 2026 09:45:21 +0300</pubDate>
<author></author>
<comments>https://pxs.md/all/trisigma-webinar-analytics-for-autonomous-vehicles/</comments>
<description>
&lt;p&gt;Качество AI-продуктов и аналитика безопасности автономного транпорта&lt;/p&gt;
&lt;p&gt;«Воплощенный ИИ» — это тема нишевая, которая стремительно набирает обороты. Тренд очевиден.&lt;br /&gt;
Верю, что через пять лет «вкусные» сервисы, продукты и вакансии будут в нише роботизированных продуктов. Собственно, поэтому я и занимаюсь этим уже сейчас и призываю присмотреться других уже сейчас.&lt;/p&gt;
&lt;p&gt;13 марта мы лампово поговорили про эту область с Витом из Trisigma (ex-ExpF).&lt;/p&gt;
&lt;p&gt;Обсудили&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;мой опыт и чем я занимался раньше: программирование, роботы, построение аналитики с нуля, стартапы и Яндекс&lt;/li&gt;
&lt;li&gt;роль безопасности в понятии «качество»&lt;/li&gt;
&lt;li&gt;популярные вопросы про роботов и автономный транспорт&lt;/li&gt;
&lt;li&gt;как устроена аналитика и в чем отличие от онлайн-сервисов: сбор данных, подбор метрик, симуляции и эксперименты&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Запись вебинара — &lt;a href="https://vk.com/video-152990965_456240137?list=ln-DkUDH24Me6NuBFM52K"&gt;VK&lt;/a&gt;, &lt;a href="https://youtu.be/Y_bFmWjyofU"&gt;YT&lt;/a&gt;&lt;/p&gt;
&lt;div class="e2-text-video"&gt;
&lt;iframe src="https://www.youtube.com/embed/Y_bFmWjyofU?enablejsapi=1" allow="autoplay" frameborder="0" allowfullscreen&gt;&lt;/iframe&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Конспект лекции про Embodied AI (eAI) Safety</title>
<guid isPermaLink="false">1</guid>
<link>https://pxs.md/all/embodied-ai-eai-safety/</link>
<pubDate>Sat, 10 Jan 2026 01:53:16 +0300</pubDate>
<author></author>
<comments>https://pxs.md/all/embodied-ai-eai-safety/</comments>
<description>
&lt;p class="lead"&gt;Конспект лекции от Фила Купмана&lt;/p&gt;
&lt;p&gt;Чтобы охватить надежность «воплощенных» ИИ-систем с разных сторон, нужно разобраться в четырех областях:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Системная безопасность / теория надежности&lt;/li&gt;
&lt;li&gt;Кибербезопасность&lt;/li&gt;
&lt;li&gt;Машинное обучение / искуственный интеллект&lt;/li&gt;
&lt;li&gt;Человеко-машинное взаимодействие (Human-Computer Interaction, HCI)&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Ключевые вопросы&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Что такое допустимый/приемлемый риск?&lt;/li&gt;
&lt;li&gt;Какие актуальные вопросы стоят в индустрии?&lt;/li&gt;
&lt;li&gt;Переопределение и развитие системной безопасности в контексте интеллекутальных систем&lt;/li&gt;
&lt;/ol&gt;
&lt;blockquote&gt;
&lt;p&gt;Люди совершают ошибки, но и компьютеры тоже&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2&gt;Концепты системной безопасности&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Задача — снижение рисков. Нужны методы...
&lt;ul&gt;
  &lt;li&gt;Определения угроз и рисков&lt;/li&gt;
  &lt;li&gt;Снижение рисков и валидации принятых мер&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Технологисекие аспекты
&lt;ul&gt;
  &lt;li&gt;Резервирование систем для повышения отказоустойчивости&lt;/li&gt;
  &lt;li&gt;Соответствие стандартам&lt;/li&gt;
  &lt;li&gt;Проектирование систем безопасными, а не только тестирование на безопасное поведение&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Создание рабочей среды / культуры, где инструменты обеспечения безопасности реально используются, а не просто существуют для галочки&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Анализ рисков&lt;/h2&gt;
&lt;p class="loud"&gt;Риск = Частота * ТяжестьПоследствий&lt;/p&gt;
&lt;p&gt;Простaя таблица рисков 2х2, которую используют для подобного анализа:&lt;/p&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;/td&gt;
&lt;td style="text-align: left"&gt;Тяжесть последствий&lt;/td&gt;
&lt;td style="text-align: center"&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Частотность&lt;/td&gt;
&lt;td style="text-align: center"&gt;Низкая&lt;/td&gt;
&lt;td style="text-align: center"&gt;Высокая&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Низкая&lt;/td&gt;
&lt;td style="text-align: center"&gt;Низкий риск&lt;/td&gt;
&lt;td style="text-align: center"&gt;???&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Высокая&lt;/td&gt;
&lt;td style="text-align: center"&gt;Средний риск&lt;/td&gt;
&lt;td style="text-align: center"&gt;Высокий риск&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;p&gt;Для кейса с маленькой частотностью, но тяжкими последствиями сложно математически рассчитать уровень риска, т. к. тут дело не в сухих цифрах, а в социальной приемлемости.&lt;/p&gt;
&lt;p&gt;Safety Integrity Level (SIL) — это уровень полноты безопасности, стандартизированный показатель, который количественно оценивает надёжность систем, предотвращающих аварийные ситуации.&lt;/p&gt;
&lt;p&gt;SIL задаёт, насколько вероятно, что система безопасности выполнит требуемую функцию в заданный момент времени — и тем самым предотвратит опасный отказ. Чем выше уровень SIL, тем строже требования к надёжности (в т.ч. технические) и тем ниже допустимая вероятность сбоя.&lt;/p&gt;
&lt;p&gt;SIL и требуемые меры проработаны во многих промышленных стандартах, но они только формируются для робототехнических / «вопрощенных» систем.&lt;/p&gt;
&lt;h2&gt;Вызов №1 — только негативные случаи имеют значение&lt;/h2&gt;
&lt;p&gt;Метрики надежности могут выглдяеть как:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;«99.999.999 vs. 99.999.998 км без инцидентов»&lt;/li&gt;
&lt;li&gt;«1 vs. 2 инцедента на 100.000.000 км»&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Первый и второй подход к показателям имеют разный акцент. В первом варианте системы практически идентичны, во втором — разница в два раза. &lt;b&gt;Метрики надежности формируются исходя из второго подхода.&lt;/b&gt;&lt;/p&gt;
&lt;p class="loud"&gt;Как следствие — единичная короткая поездка ничего не говорит о надежности системы.&lt;/p&gt;
&lt;h2&gt;Вызов №2 — редкие и тяжкие события&lt;/h2&gt;
&lt;p&gt;Какой уровень риска у событий с околонулевой вероятностью, но тяжелейшими последствиями?&lt;/p&gt;
&lt;p class="loud"&gt;zero probabilty * infinity cost = ???&lt;/p&gt;
&lt;p&gt;Аргументы с т.з. экономики, будут подталкивать оценить риск как низкий. Социальные и медийные аргументы будут подталкивать оценить риск как высокий.&lt;/p&gt;
&lt;p&gt;Философия оценки редких и тяжких событий зависит от прикладной области. По наблюдениям Фила Купмана, в автомобильной индустрии риск принимается скорее как низкий, а в авиации — как высокий.&lt;/p&gt;
&lt;p&gt;Один из ярких инцедентов в 2023г привел к закрытию бизнес-направления (см. дело Cruise &lt;a href="https://en.wikipedia.org/wiki/Cruise_(autonomous_vehicle)"&gt;https://en.wikipedia.org/wiki/Cruise_(autonomous_vehicle)&lt;/a&gt; )&lt;/p&gt;
&lt;p&gt;Тем не менее, в 2025-м году General Motors возобонил проект и нанимает команду&lt;br /&gt;
&lt;a href="https://www.bloomberg.com/news/articles/2025-08-11/gm-plans-renewed-push-on-driverless-cars-after-cruise-debacle"&gt;https://www.bloomberg.com/news/articles/2025-08-11/gm-plans-renewed-push-on-driverless-cars-after-cruise-debacle&lt;/a&gt;&lt;br /&gt;
&lt;a href="https://www.businessinsider.com/gm-hires-former-tesla-exec-ronalee-mann-self-driving-cruise-2025-12"&gt;https://www.businessinsider.com/gm-hires-former-tesla-exec-ronalee-mann-self-driving-cruise-2025-12&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;Кибербезопасность&lt;/h2&gt;
&lt;p&gt;&lt;b&gt;1. Целостность и доступность&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;В eAI системах упор на целостности и доступности системы. То есть, юзер должен быть уверен, что автономный автомобиль не заражен зловредной программной, которая может повлияеть на его поведение. Вопрос конфеденциальности не стоит так остро как в онлайн-сервисах, т. к. машины и так на виду на дорогах и можно визуально отследить кто куда едет.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;2. Вредоносные ошибки&lt;/b&gt;&lt;br /&gt;
Кибератаки могут перестроить уровни угроз, т. к. какой-то вид инцидентом может стать более частотным.&lt;/p&gt;
&lt;p&gt;&lt;b&gt; 3. Физический доступ к устройству&lt;/b&gt;&lt;br /&gt;
Злоумышленник может подключиться к eAI систете и провести более сложные манипулации, нежели с удаленным сервером.&lt;/p&gt;
&lt;h2&gt;ML&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Обучается по примерам и отталкивается от статистики, вероятностей, частотности
&lt;ul&gt;
  &lt;li&gt;Модели не закладывают фундаментальные законы работы мира&lt;/li&gt;
  &lt;li&gt;&lt;i&gt;[прим. АМ] для роботехники разрабатываются специальные модели, которые имеют представление о законах физики и причинно-следственных связей, но на уровне научных исследований&lt;/i&gt;&lt;/li&gt;
  &lt;li&gt;Машинное обучение несовместимо с Vee-моделью создания надежных технических систем.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p class="loud"&gt;Тестирование — это не про доказательство корректности работы системы, а про проверку реализованных шагов при проектировании системы и адекватность процесса разработки.&lt;/p&gt;
&lt;p&gt;Машинное обучение учится на основе данных удовлетворять продуктовым требованиям. Как убедиться, что данные соотвествуют требованиям? Что в них точо есть, нужные примеры? Или наоброт — в них нет лишнего, что может повляить на обучение под требования? Система может обучаться непредсказуемо, что приводит к брутфорс-тестированию всего возможного и невозможного. На практике это невозможно, что еще раз подчеркивает, что тестирование не может обеспечить гарантию корректности работы системы.&lt;/p&gt;
&lt;p&gt;&lt;i&gt;Тут видимо идейно про то, что нельзя сделать ТЗ для конкретных микро-фичей и ожидать корректность работы всей системы. Нельзя решить задачу надежности для ML в общем виде&lt;/i&gt;&lt;/p&gt;
&lt;p&gt;Что с этим делать? Уходить от абстрактной задачи обеспечения надежности к более конкретным. Проектировать дизайн эксперемента (датасеты и критерии успеха) так, чтобы можно было аргументированно рассказать почему разработчик системы считает, что это повышает надежность.&lt;/p&gt;
&lt;h2&gt;Human &amp; eAI Safety&lt;/h2&gt;
&lt;p&gt;Человек плохо подходит для рутинной задачи контроля почти идеального автопилота&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Perception-Response Time (PRT)&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Людям нужно время, чтобы разобраться в ситуации и понять что делать дальше. У экспертов может вырабатываться мышечная память как поступать в тех или иных ситуациях, что ускоряет ответную реакцию.&lt;/p&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Ирония автоматизации удленяет PRT
&lt;ul&gt;
  &lt;li&gt;больше автоматизации ведет к меньшей практике людьми =&gt; во время отказа системы, у оператора может не хватить квалификации для своевременного принятия верного решения&lt;/li&gt;
  &lt;li&gt;предвзятость в пользу автоматизации (automation bias) — люди склонны доверять решению специализированной системы, а не себе. особенно, если система долгое время работает корректно&lt;/li&gt;
  &lt;li&gt;чем дольше система работает корректно, тем больше человек ей доверяет и тем сложнее быстро вмешаться, когда что-то идет не так&lt;/li&gt;
  &lt;li&gt;Ирония: чем эффективнее автоматика тем менее эффективен процесс контроля за ней со стороны людей&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Этическая и юридическая проблема&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Кто отвественен за некорректное поведение eAI системы?&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Перекладывание отвественности на человека, не делает систему надежнее и безопаснее.&lt;/li&gt;
&lt;/ol&gt;
&lt;blockquote&gt;
&lt;p&gt;Moral crumple zone («моральная зона смятия») — концепция, описывающая ситуацию, когда человек становится «буфером ответственности» в сбоях сложных автоматизированных или автономных систем.&lt;br /&gt;
Термин построен на аналогии с зоной смятия в автомобиле (энергопоглощающей частью кузова, которая деформируется при ударе, защищая пассажиров). В социотехнических системах «моральная зона смятия»: «поглощает» вину за сбой системы;&lt;br /&gt;
перекладывает моральную и юридическую ответственность на человека‑оператора;&lt;br /&gt;
защищает репутацию и целостность технологии/организации, жертвуя репутацией или правовым положением человека.&lt;br /&gt;
Понятие предложил исследователь Мэдлин Клэр Элиш (Madeleine Clare Elish) в работе «Moral Crumple Zones: Cautionary Tales in Human‑Robot Interaction» (2019). Она показала, как медиа и юридические системы часто упрощают причинно‑следственные связи, делая человека «удобным» виновником.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2&gt;Известные проблемы...&lt;/h2&gt;
&lt;p&gt;...которые видны за последние годы пилотных запуском&lt;/p&gt;
&lt;p&gt;&lt;b&gt;1. Ложные срабатывания систем безопасности автомобиля&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;ненужные торможения и передача управления водителю&lt;/li&gt;
&lt;li&gt;автономный траспорт начинает вести себя непредсказуемо с т.з. других участников движения, что повышает риск аварии&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;2. Непредсказуемость работы системы&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Какие гарантии, что система поведет себя точно так же в такой ситуации? Зачастую поведение недетрменировано, а ситуации хоть чуть-чутьт да различаются.&lt;/li&gt;
&lt;li&gt;Сколько раз система должна пройти тестовый сценарий, чтобы убедиться в корректности работы? Хватит ли одного раза? Десяти? Тысячи? Миллиона?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;3. Статистический подход при работе с надежностью&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Технические метрики для ML-систем в районе 90%-99% это супер-круто&lt;/li&gt;
&lt;li&gt;Но в задачах надежности нужны 99.9999999...% . Какие подходы могут добиться этих значений при обучении моделей?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;4. «Длинный (бескончный) хвост» редких и необычных случаев&lt;/b&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://pxs.md/pictures/image.png" width="400" height="400" alt="" /&gt;
&lt;/div&gt;
&lt;ul&gt;
&lt;li&gt;Как построить надежную eAI-систему, которая не может физически быть обучена на всех видах ситуаций?&lt;/li&gt;
&lt;li&gt;Нужен человеческий бекап + система должна понимать когда она не может работать&lt;/li&gt;
&lt;/ul&gt;
&lt;p class="loud"&gt;Безопасность — это не только про травмы и смерти, но и про неадекватное (рисковое) поведение.&lt;/p&gt;
&lt;p&gt;Например, Cruise заезжай на стройплощадки и не был готов к ситуациям, когда территория огорена подручными средствами.&lt;/p&gt;
&lt;h2&gt;Социальные риски из будущего&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;АТ может быть в среднем безопаснее, но иметь явный паттерн рискового поведения. Это ОК или НеОК?&lt;/li&gt;
&lt;li&gt;АТ приоритезириует безопасность людей в салоне относительно людей на улице.&lt;/li&gt;
&lt;li&gt;АТ может быть законопослушным, но что если другой участник движения нарушил ПДД и это сподвигает АТ нарушить ПДД, чтобы избежать рисковой ситуации? (механизм компенсации)&lt;/li&gt;
&lt;li&gt;Роботакси теоретичеки может не закончить поездку до конца и высадить пассажира в «плохом районе в плохое время».&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Безопасность включает в себя разные критерии успеха, которые важны разным стейкхолдреам. Не получится сделать одну метрику, которая докажет что система безопасна. Будет много ограничений, которые надо учитывать.&lt;/p&gt;
&lt;h2&gt;Юридические аспекты&lt;/h2&gt;
&lt;p&gt;&lt;b&gt;Duty of Care for Human (осторожное поведение / забота)&lt;/b&gt;&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;В Праве есть понятие «здравомыслящего человека», который соблюдает юридические и социальные нормы, что помогает предотвратить приченение вреда другим людям.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Пренебрежение этих норм можно описать как халатное поведение&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Duty of Care for Computers&lt;/b&gt;&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Текущий подход: ошибка на дороге = ошибка в проектировании системы = надо проводить тех.экспертизу, доказывать ее наличие именно в системе, а не окружающей среде, т. е. потенциальо не будет отвественного&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Предлагаемый подход: ошибка компьютера интерпретировать как ошибку человека, со всеми вытекающими последствиями которые будут наложена на производителя автономного транспорта&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Представим, что человек накатал миллион км и никого не сбил, хотя по статистике к этому моменту должно было быть 10 аварий. И на миллионном километре он сбил пешехода. Он не сможет защитить себя в суде аргументами в стиле «я катаюсь лучше среднего и у меня в запасе еще 9 ДТП». Судья отклонит этот аргумент.&lt;/p&gt;
&lt;p&gt;Производители автопилотов хотят оперировать статистикой для защиты своих интересов, а не фактом наличия нарушений.&lt;/p&gt;
&lt;h2&gt;Запутывающий слоган&lt;/h2&gt;
&lt;p&gt;Обратная сторона тезиса «автопилоты спасают жизни». Нужны другие слоганы&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Чтобы это доказать надо миллиарды киллометров&lt;/li&gt;
&lt;li&gt;Медийка не даст времени, чтобы это доказать.
&lt;ul&gt;
  &lt;li&gt;Любой прецидент будет использован, чтобы поставить под сомнение основной тезиc&lt;/li&gt;
  &lt;li&gt;Люди воспринимают истории, а не статистику&lt;/li&gt;
  &lt;li&gt;Фотка с ДТП имеет большой эффект наглядности, который будет бить любую статистику&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;div class="e2-text-video"&gt;
&lt;iframe src="https://www.youtube.com/embed/ka-jvqwJtvA?enablejsapi=1" allow="autoplay" frameborder="0" allowfullscreen&gt;&lt;/iframe&gt;
&lt;/div&gt;
</description>
</item>


</channel>
</rss>