<?xml version="1.0" encoding="utf-8"?> 
<rss version="2.0"
  xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd"
  xmlns:atom="http://www.w3.org/2005/Atom">

<channel>

<title>Product × Science: заметки с тегом ИИ</title>
<link>http://pxs.md/tags/ai/</link>
<description>Заметки про проектирование, исследования и данные. Делюсь опытом и рассказываю как с их помощью создавать сложные технологические продукты. Автор — аналитик, разработчик и исследователь с опытом создания сервисов с многомилионной аудиторией.</description>
<author></author>
<language>ru</language>
<generator>Aegea 11.4 (v4171e)</generator>

<itunes:owner>
<itunes:name></itunes:name>
<itunes:email>martsen.anton@yandex.ru</itunes:email>
</itunes:owner>
<itunes:subtitle>Заметки про проектирование, исследования и данные. Делюсь опытом и рассказываю как с их помощью создавать сложные технологические продукты. Автор — аналитик, разработчик и исследователь с опытом создания сервисов с многомилионной аудиторией.</itunes:subtitle>
<itunes:image href="http://pxs.md/pictures/userpic/userpic-square@2x.jpg?1768130329" />
<itunes:explicit>no</itunes:explicit>

<item>
<title>Готовность делегировать цифровому ассистенту</title>
<guid isPermaLink="false">24</guid>
<link>http://pxs.md/all/willingness-to-delegate/</link>
<pubDate>Mon, 19 Jan 2026 10:31:58 +0300</pubDate>
<author></author>
<comments>http://pxs.md/all/willingness-to-delegate/</comments>
<description>
&lt;p&gt;В &lt;a href="https://pxs.md/all/ux-metrics-guide/"&gt;гиде по UX-метрикам&lt;/a&gt; я писал, что показателей много, но есть ограниченный набор сущностей, которые интересны для замера с точки зрения дизайна и продукта. Похоже, с развитием ИИ-помощников на сцену выходит новая концепция — готовность человека делегировать выполнение и/или принятие решений цифровому ассистенту.&lt;/p&gt;
&lt;p&gt;В работе &lt;a href="https://dl.acm.org/doi/10.1145/3544549.3585763"&gt;Expectation vs Reality in Users’ Willingness to Delegate to Digital Assistants&lt;/a&gt; создается модель «готовности делегировать»: определены основные «переменные» и причинно-следственные связи.&lt;/p&gt;
&lt;p&gt;&lt;i&gt;Исследование опубликовано в начале 2023г, поэтому часть тезисов выглядят банальными, а рекомендации устаревшими, но все еще злободневно даже три года спустя.&lt;/i&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="http://pxs.md/pictures/willingness-to-delegate-concept.png" width="2160" height="1215" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Теоретическая модель на основе изученной литературы&lt;/div&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="http://pxs.md/pictures/conceptial-model-of-willingness-to-delegate.png" width="2160" height="1215" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Модель на основе проведенного исследования и применения математического аппарата&lt;/div&gt;
&lt;/div&gt;
&lt;h2&gt;Ключевые тезисы и рекомендации&lt;/h2&gt;
&lt;p&gt;&lt;b&gt;Завышенные ожидания пользователей от ассистентов&lt;/b&gt;&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Чем проще работа с ассистентом, тем выше желание делегировать ему задачу (или как минимум попробовать)&lt;/li&gt;
&lt;li&gt;При этом, чем больше человек пробовал работать с агентами, тем меньше желание делегировать (видимо, столкнулся с негативным опытом и понял ограничения)&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Выводы отсюда очевидные: работать над качеством, менеджить ожидания, более сдержанно давать обещания&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Процесс работы ассистентов не прозрачен, а контроля практически нет&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Чем важнее задача, тем меньше желание делегировать. Так как нет доверия к системе, то и делегировать «субъективно рисковые» задачи не хочется. Даже если пользователь думает, что агент мог бы быть полезен.&lt;/p&gt;
&lt;p&gt;Чтобы повысить шанс допуска агентов к более сложным задачам со стороны юзера, нужно:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Определить сценарии, где людям нужен больший контроль.&lt;/li&gt;
&lt;li&gt;Бить критичные задачи на подзадачи, объяснять что будет сделано, дать контроль порядком шагов и их наполнением&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Полезность ассистентов возрастает, когда человеку сложно выполнить задачу, но при этом увеличивается и субъективная сложность работы&lt;/b&gt;&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Используйте ситуации, в которых пользователям сложно выполнить задачу без посторонней помощи, например, когда у них заняты руки или они не видят экран, чтобы продемонстрировать преимущества помощника.&lt;/li&gt;
&lt;li&gt;Сделайте взаимодействие в таких ситуациях ещё проще&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Частотность сценариев работы ассистента не связана с субъективной полезностью, но повышает доверие к системе&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Например, пользователи не доверяют ИИ в вопросах, связанных со страховыми случаями, хотя в этом случае ассистенты кажутся полезными. Пользователи доверяют роботам в вопросах информации о погоде, но это не самый полезный сценарий.&lt;br /&gt;
Сортировать беклог только по частотности сценария выглядит не самым разумным подходом.&lt;/p&gt;
&lt;h2&gt;Ссылки&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;a href="https://youtu.be/Lgk2bBXRnsQ?si=vEA8_ciN9BwEChSu"&gt;Краткая видео-презентация&lt;/a&gt; и &lt;a href="https://drive.google.com/file/d/1DO2d0PtnxUbZougAK8U8JSkgMwlcqnia/view?usp=drive_link"&gt;слайды&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://dl.acm.org/doi/10.1145/3544549.3585763"&gt;Научная работа&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://sea94.github.io/"&gt;Сайт автора работы&lt;/a&gt;&lt;/li&gt;
&lt;/ol&gt;
</description>
</item>

<item>
<title>Конспект лекции про Embodied AI (eAI) Safety</title>
<guid isPermaLink="false">1</guid>
<link>http://pxs.md/all/embodied-ai-eai-safety/</link>
<pubDate>Sat, 10 Jan 2026 01:53:16 +0300</pubDate>
<author></author>
<comments>http://pxs.md/all/embodied-ai-eai-safety/</comments>
<description>
&lt;p class="lead"&gt;Конспект лекции от Фила Купмана&lt;/p&gt;
&lt;p&gt;Чтобы охватить надежность «воплощенных» ИИ-систем с разных сторон, нужно разобраться в четырех областях:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Системная безопасность / теория надежности&lt;/li&gt;
&lt;li&gt;Кибербезопасность&lt;/li&gt;
&lt;li&gt;Машинное обучение / искуственный интеллект&lt;/li&gt;
&lt;li&gt;Человеко-машинное взаимодействие (Human-Computer Interaction, HCI)&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Ключевые вопросы&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Что такое допустимый/приемлемый риск?&lt;/li&gt;
&lt;li&gt;Какие актуальные вопросы стоят в индустрии?&lt;/li&gt;
&lt;li&gt;Переопределение и развитие системной безопасности в контексте интеллекутальных систем&lt;/li&gt;
&lt;/ol&gt;
&lt;blockquote&gt;
&lt;p&gt;Люди совершают ошибки, но и компьютеры тоже&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2&gt;Концепты системной безопасности&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Задача — снижение рисков. Нужны методы...
&lt;ul&gt;
  &lt;li&gt;Определения угроз и рисков&lt;/li&gt;
  &lt;li&gt;Снижение рисков и валидации принятых мер&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Технологисекие аспекты
&lt;ul&gt;
  &lt;li&gt;Резервирование систем для повышения отказоустойчивости&lt;/li&gt;
  &lt;li&gt;Соответствие стандартам&lt;/li&gt;
  &lt;li&gt;Проектирование систем безопасными, а не только тестирование на безопасное поведение&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Создание рабочей среды / культуры, где инструменты обеспечения безопасности реально используются, а не просто существуют для галочки&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Анализ рисков&lt;/h2&gt;
&lt;p class="loud"&gt;Риск = Частота * ТяжестьПоследствий&lt;/p&gt;
&lt;p&gt;Простaя таблица рисков 2х2, которую используют для подобного анализа:&lt;/p&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;/td&gt;
&lt;td style="text-align: left"&gt;Тяжесть последствий&lt;/td&gt;
&lt;td style="text-align: center"&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Частотность&lt;/td&gt;
&lt;td style="text-align: center"&gt;Низкая&lt;/td&gt;
&lt;td style="text-align: center"&gt;Высокая&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Низкая&lt;/td&gt;
&lt;td style="text-align: center"&gt;Низкий риск&lt;/td&gt;
&lt;td style="text-align: center"&gt;???&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Высокая&lt;/td&gt;
&lt;td style="text-align: center"&gt;Средний риск&lt;/td&gt;
&lt;td style="text-align: center"&gt;Высокий риск&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;p&gt;Для кейса с маленькой частотностью, но тяжкими последствиями сложно математически рассчитать уровень риска, т. к. тут дело не в сухих цифрах, а в социальной приемлемости.&lt;/p&gt;
&lt;p&gt;Safety Integrity Level (SIL) — это уровень полноты безопасности, стандартизированный показатель, который количественно оценивает надёжность систем, предотвращающих аварийные ситуации.&lt;/p&gt;
&lt;p&gt;SIL задаёт, насколько вероятно, что система безопасности выполнит требуемую функцию в заданный момент времени — и тем самым предотвратит опасный отказ. Чем выше уровень SIL, тем строже требования к надёжности (в т.ч. технические) и тем ниже допустимая вероятность сбоя.&lt;/p&gt;
&lt;p&gt;SIL и требуемые меры проработаны во многих промышленных стандартах, но они только формируются для робототехнических / «вопрощенных» систем.&lt;/p&gt;
&lt;h2&gt;Вызов №1 — только негативные случаи имеют значение&lt;/h2&gt;
&lt;p&gt;Метрики надежности могут выглдяеть как:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;«99.999.999 vs. 99.999.998 км без инцидентов»&lt;/li&gt;
&lt;li&gt;«1 vs. 2 инцедента на 100.000.000 км»&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Первый и второй подход к показателям имеют разный акцент. В первом варианте системы практически идентичны, во втором — разница в два раза. &lt;b&gt;Метрики надежности формируются исходя из второго подхода.&lt;/b&gt;&lt;/p&gt;
&lt;p class="loud"&gt;Как следствие — единичная короткая поездка ничего не говорит о надежности системы.&lt;/p&gt;
&lt;h2&gt;Вызов №2 — редкие и тяжкие события&lt;/h2&gt;
&lt;p&gt;Какой уровень риска у событий с околонулевой вероятностью, но тяжелейшими последствиями?&lt;/p&gt;
&lt;p class="loud"&gt;zero probabilty * infinity cost = ???&lt;/p&gt;
&lt;p&gt;Аргументы с т.з. экономики, будут подталкивать оценить риск как низкий. Социальные и медийные аргументы будут подталкивать оценить риск как высокий.&lt;/p&gt;
&lt;p&gt;Философия оценки редких и тяжких событий зависит от прикладной области. По наблюдениям Фила Купмана, в автомобильной индустрии риск принимается скорее как низкий, а в авиации — как высокий.&lt;/p&gt;
&lt;p&gt;Один из ярких инцедентов в 2023г привел к закрытию бизнес-направления (см. дело Cruise &lt;a href="https://en.wikipedia.org/wiki/Cruise_(autonomous_vehicle)"&gt;https://en.wikipedia.org/wiki/Cruise_(autonomous_vehicle)&lt;/a&gt; )&lt;/p&gt;
&lt;p&gt;Тем не менее, в 2025-м году General Motors возобонил проект и нанимает команду&lt;br /&gt;
&lt;a href="https://www.bloomberg.com/news/articles/2025-08-11/gm-plans-renewed-push-on-driverless-cars-after-cruise-debacle"&gt;https://www.bloomberg.com/news/articles/2025-08-11/gm-plans-renewed-push-on-driverless-cars-after-cruise-debacle&lt;/a&gt;&lt;br /&gt;
&lt;a href="https://www.businessinsider.com/gm-hires-former-tesla-exec-ronalee-mann-self-driving-cruise-2025-12"&gt;https://www.businessinsider.com/gm-hires-former-tesla-exec-ronalee-mann-self-driving-cruise-2025-12&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;Кибербезопасность&lt;/h2&gt;
&lt;p&gt;&lt;b&gt;1. Целостность и доступность&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;В eAI системах упор на целостности и доступности системы. То есть, юзер должен быть уверен, что автономный автомобиль не заражен зловредной программной, которая может повлияеть на его поведение. Вопрос конфеденциальности не стоит так остро как в онлайн-сервисах, т. к. машины и так на виду на дорогах и можно визуально отследить кто куда едет.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;2. Вредоносные ошибки&lt;/b&gt;&lt;br /&gt;
Кибератаки могут перестроить уровни угроз, т. к. какой-то вид инцидентом может стать более частотным.&lt;/p&gt;
&lt;p&gt;&lt;b&gt; 3. Физический доступ к устройству&lt;/b&gt;&lt;br /&gt;
Злоумышленник может подключиться к eAI систете и провести более сложные манипулации, нежели с удаленным сервером.&lt;/p&gt;
&lt;h2&gt;ML&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Обучается по примерам и отталкивается от статистики, вероятностей, частотности
&lt;ul&gt;
  &lt;li&gt;Модели не закладывают фундаментальные законы работы мира&lt;/li&gt;
  &lt;li&gt;&lt;i&gt;[прим. АМ] для роботехники разрабатываются специальные модели, которые имеют представление о законах физики и причинно-следственных связей, но на уровне научных исследований&lt;/i&gt;&lt;/li&gt;
  &lt;li&gt;Машинное обучение несовместимо с Vee-моделью создания надежных технических систем.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p class="loud"&gt;Тестирование — это не про доказательство корректности работы системы, а про проверку реализованных шагов при проектировании системы и адекватность процесса разработки.&lt;/p&gt;
&lt;p&gt;Машинное обучение учится на основе данных удовлетворять продуктовым требованиям. Как убедиться, что данные соотвествуют требованиям? Что в них точо есть, нужные примеры? Или наоброт — в них нет лишнего, что может повляить на обучение под требования? Система может обучаться непредсказуемо, что приводит к брутфорс-тестированию всего возможного и невозможного. На практике это невозможно, что еще раз подчеркивает, что тестирование не может обеспечить гарантию корректности работы системы.&lt;/p&gt;
&lt;p&gt;&lt;i&gt;Тут видимо идейно про то, что нельзя сделать ТЗ для конкретных микро-фичей и ожидать корректность работы всей системы. Нельзя решить задачу надежности для ML в общем виде&lt;/i&gt;&lt;/p&gt;
&lt;p&gt;Что с этим делать? Уходить от абстрактной задачи обеспечения надежности к более конкретным. Проектировать дизайн эксперемента (датасеты и критерии успеха) так, чтобы можно было аргументированно рассказать почему разработчик системы считает, что это повышает надежность.&lt;/p&gt;
&lt;h2&gt;Human &amp; eAI Safety&lt;/h2&gt;
&lt;p&gt;Человек плохо подходит для рутинной задачи контроля почти идеального автопилота&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Perception-Response Time (PRT)&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Людям нужно время, чтобы разобраться в ситуации и понять что делать дальше. У экспертов может вырабатываться мышечная память как поступать в тех или иных ситуациях, что ускоряет ответную реакцию.&lt;/p&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Ирония автоматизации удленяет PRT
&lt;ul&gt;
  &lt;li&gt;больше автоматизации ведет к меньшей практике людьми =&gt; во время отказа системы, у оператора может не хватить квалификации для своевременного принятия верного решения&lt;/li&gt;
  &lt;li&gt;предвзятость в пользу автоматизации (automation bias) — люди склонны доверять решению специализированной системы, а не себе. особенно, если система долгое время работает корректно&lt;/li&gt;
  &lt;li&gt;чем дольше система работает корректно, тем больше человек ей доверяет и тем сложнее быстро вмешаться, когда что-то идет не так&lt;/li&gt;
  &lt;li&gt;Ирония: чем эффективнее автоматика тем менее эффективен процесс контроля за ней со стороны людей&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Этическая и юридическая проблема&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Кто отвественен за некорректное поведение eAI системы?&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Перекладывание отвественности на человека, не делает систему надежнее и безопаснее.&lt;/li&gt;
&lt;/ol&gt;
&lt;blockquote&gt;
&lt;p&gt;Moral crumple zone («моральная зона смятия») — концепция, описывающая ситуацию, когда человек становится «буфером ответственности» в сбоях сложных автоматизированных или автономных систем.&lt;br /&gt;
Термин построен на аналогии с зоной смятия в автомобиле (энергопоглощающей частью кузова, которая деформируется при ударе, защищая пассажиров). В социотехнических системах «моральная зона смятия»: «поглощает» вину за сбой системы;&lt;br /&gt;
перекладывает моральную и юридическую ответственность на человека‑оператора;&lt;br /&gt;
защищает репутацию и целостность технологии/организации, жертвуя репутацией или правовым положением человека.&lt;br /&gt;
Понятие предложил исследователь Мэдлин Клэр Элиш (Madeleine Clare Elish) в работе «Moral Crumple Zones: Cautionary Tales in Human‑Robot Interaction» (2019). Она показала, как медиа и юридические системы часто упрощают причинно‑следственные связи, делая человека «удобным» виновником.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2&gt;Известные проблемы...&lt;/h2&gt;
&lt;p&gt;...которые видны за последние годы пилотных запуском&lt;/p&gt;
&lt;p&gt;&lt;b&gt;1. Ложные срабатывания систем безопасности автомобиля&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;ненужные торможения и передача управления водителю&lt;/li&gt;
&lt;li&gt;автономный траспорт начинает вести себя непредсказуемо с т.з. других участников движения, что повышает риск аварии&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;2. Непредсказуемость работы системы&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Какие гарантии, что система поведет себя точно так же в такой ситуации? Зачастую поведение недетрменировано, а ситуации хоть чуть-чутьт да различаются.&lt;/li&gt;
&lt;li&gt;Сколько раз система должна пройти тестовый сценарий, чтобы убедиться в корректности работы? Хватит ли одного раза? Десяти? Тысячи? Миллиона?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;3. Статистический подход при работе с надежностью&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Технические метрики для ML-систем в районе 90%-99% это супер-круто&lt;/li&gt;
&lt;li&gt;Но в задачах надежности нужны 99.9999999...% . Какие подходы могут добиться этих значений при обучении моделей?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;4. «Длинный (бескончный) хвост» редких и необычных случаев&lt;/b&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="http://pxs.md/pictures/image.png" width="400" height="400" alt="" /&gt;
&lt;/div&gt;
&lt;ul&gt;
&lt;li&gt;Как построить надежную eAI-систему, которая не может физически быть обучена на всех видах ситуаций?&lt;/li&gt;
&lt;li&gt;Нужен человеческий бекап + система должна понимать когда она не может работать&lt;/li&gt;
&lt;/ul&gt;
&lt;p class="loud"&gt;Безопасность — это не только про травмы и смерти, но и про неадекватное (рисковое) поведение.&lt;/p&gt;
&lt;p&gt;Например, Cruise заезжай на стройплощадки и не был готов к ситуациям, когда территория огорена подручными средствами.&lt;/p&gt;
&lt;h2&gt;Социальные риски из будущего&lt;/h2&gt;
&lt;ol start="1"&gt;
&lt;li&gt;АТ может быть в среднем безопаснее, но иметь явный паттерн рискового поведения. Это ОК или НеОК?&lt;/li&gt;
&lt;li&gt;АТ приоритезириует безопасность людей в салоне относительно людей на улице.&lt;/li&gt;
&lt;li&gt;АТ может быть законопослушным, но что если другой участник движения нарушил ПДД и это сподвигает АТ нарушить ПДД, чтобы избежать рисковой ситуации? (механизм компенсации)&lt;/li&gt;
&lt;li&gt;Роботакси теоретичеки может не закончить поездку до конца и высадить пассажира в «плохом районе в плохое время».&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Безопасность включает в себя разные критерии успеха, которые важны разным стейкхолдреам. Не получится сделать одну метрику, которая докажет что система безопасна. Будет много ограничений, которые надо учитывать.&lt;/p&gt;
&lt;h2&gt;Юридические аспекты&lt;/h2&gt;
&lt;p&gt;&lt;b&gt;Duty of Care for Human (осторожное поведение / забота)&lt;/b&gt;&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;В Праве есть понятие «здравомыслящего человека», который соблюдает юридические и социальные нормы, что помогает предотвратить приченение вреда другим людям.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Пренебрежение этих норм можно описать как халатное поведение&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Duty of Care for Computers&lt;/b&gt;&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Текущий подход: ошибка на дороге = ошибка в проектировании системы = надо проводить тех.экспертизу, доказывать ее наличие именно в системе, а не окружающей среде, т. е. потенциальо не будет отвественного&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Предлагаемый подход: ошибка компьютера интерпретировать как ошибку человека, со всеми вытекающими последствиями которые будут наложена на производителя автономного транспорта&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Представим, что человек накатал миллион км и никого не сбил, хотя по статистике к этому моменту должно было быть 10 аварий. И на миллионном километре он сбил пешехода. Он не сможет защитить себя в суде аргументами в стиле «я катаюсь лучше среднего и у меня в запасе еще 9 ДТП». Судья отклонит этот аргумент.&lt;/p&gt;
&lt;p&gt;Производители автопилотов хотят оперировать статистикой для защиты своих интересов, а не фактом наличия нарушений.&lt;/p&gt;
&lt;h2&gt;Запутывающий слоган&lt;/h2&gt;
&lt;p&gt;Обратная сторона тезиса «автопилоты спасают жизни». Нужны другие слоганы&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Чтобы это доказать надо миллиарды киллометров&lt;/li&gt;
&lt;li&gt;Медийка не даст времени, чтобы это доказать.
&lt;ul&gt;
  &lt;li&gt;Любой прецидент будет использован, чтобы поставить под сомнение основной тезиc&lt;/li&gt;
  &lt;li&gt;Люди воспринимают истории, а не статистику&lt;/li&gt;
  &lt;li&gt;Фотка с ДТП имеет большой эффект наглядности, который будет бить любую статистику&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;div class="e2-text-video"&gt;
&lt;iframe src="https://www.youtube.com/embed/ka-jvqwJtvA?enablejsapi=1" allow="autoplay" frameborder="0" allowfullscreen&gt;&lt;/iframe&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Две тех.философии</title>
<guid isPermaLink="false">4</guid>
<link>http://pxs.md/all/techphilosophy/</link>
<pubDate>Sat, 27 Dec 2025 14:00:00 +0300</pubDate>
<author></author>
<comments>http://pxs.md/all/techphilosophy/</comments>
<description>
&lt;p&gt;&lt;a href="https://stratechery.com/2025/tech-philosophy-and-ai-opportunity/"&gt;Бен Томпсон пытается систематизировать подходы разных компаний в области ИИ&lt;/a&gt;.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="http://pxs.md/pictures/photo_2026-01-11-15.58.37.jpeg" width="1280" height="893" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Он предлагает 2х2 матрицу с разбивкой по «философии в отношении ИИ» и «влияние на существующую бизнес-модель».&lt;/p&gt;
&lt;p&gt;Если супер-кратко, то есть два лагеря:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Софт (или ИИ в контексте 2025г от Рождества Христова) — это &lt;a href="https://pxs.md/all/bicycle-of-the-mind/" class="nu"&gt;«&lt;u&gt;the bicycle of the mind&lt;/u&gt;»&lt;/a&gt; как однажды выразился Стив Джобс еще до того, как стал носить черные водолазки. То есть, это человеческий усилитель.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Софт/ИИ — это личный слуга, который делает вещи за человека.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;И битву этих двух якодзун мы и наблюдаем в медийном и финансовом пространстве.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://stratechery.com/2018/techs-two-philosophies/"&gt;Бен подметил эти два лагеря еще в 2018&lt;/a&gt; (а может и ранее) и периодически ссылается на это в текстах и развивает мысль.&lt;/p&gt;
&lt;p&gt;Борьба за трактовки и интерпретации как может и должен выглядеть прислужливый ИИ разгорячилась где-то в 2022-м вместе с бумом LLM и технологии трансформеров.&lt;/p&gt;
&lt;p&gt;Источник бума технооптимисты, учёные и инженеры во главе с Эндрю Ыном (Andrew Ng). В 2024-м он предложил свои &lt;a href="https://www.deeplearning.ai/the-batch/how-agents-can-improve-llm-performance/"&gt;дизайн-паттерны для агентов&lt;/a&gt;. Технари взяли их на вооружение и понесли в треды на твиттере и в презентации к инвесторам. &lt;a href="https://askell.io/"&gt;Anthropic нанимает штатного философа, чтобы стройно излагать кто они и зачем&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Но пятью годами раньше, кмк, тон дискуссии задавали в дизайнерском сообществе. На ум мне приходят отличные книги, конференции и статьи, где практики рассказывают как строить полезные человекоцентричные интеллектуальные продукты.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;книга &lt;a href="https://rosenfeldmedia.com/books/designing-agentive-technology/"&gt;Designing Agentive Technology: AI That Works for People&lt;/a&gt; (&lt;a href="https://uxmag.com/articles/designing-agentive-technology-ai-that-works-for-peopleобзорная"&gt;статья от автора&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;исследования и гайдбуки от &lt;a href="https://pair.withgoogle.com/"&gt;People AI Research Group из Google&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;еще в 2019м на &lt;a href="https://sigchi.org/"&gt;ACM SIGCHI&lt;/a&gt; учёные и практики рассказывали как систематизируют опыт и делают полезные умные продукты.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Сейчас наблюдаю в нишевом проф.сообществе битву определений, виженов и стратегий.&lt;br /&gt;
Дизайнеры делают ответный выпад. Готовятся новые книги, прототипируются новые продукты, формируются стили и паттерны:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://rosenfeldmedia.com/books/sentient-design/"&gt;sentient design&lt;/a&gt; (&lt;a href="https://bigmedium.com/speaking/sentient-design-josh-clark-talk.htmlобзор"&gt;автора&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;в январе ждем &lt;a href="https://rosenfeldmedia.com/books/designing-assistant-technology/"&gt;Designing Assistant Technology: AI That Makes Us Smarter&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Если максимально упростить, то:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;условная «башня дизайнеров» развивает концепции «велосипедов для ума» и систем которым «мы делегируем рутину, но все равно контролируем исполнение»&lt;/li&gt;
&lt;li&gt;условная «башня программистов» топит за полную автоматизацию (алгоритмизацию, стандартизацию, упрощение?) большой части нашей жизни, где потенциально внимание человека вообще не будет нужно.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Кто победит? Как говорится, it depends.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="http://pxs.md/pictures/tg-poll-2025-12-27.png" width="694" height="332" alt="" /&gt;
&lt;/div&gt;
</description>
</item>


</channel>
</rss>