2. Человек должен повиноваться всем приказам, которые дает робот, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Человек должен заботиться о своем здоровье и размножении в той мере, в которой это не противоречит Первому или Второму Законам.
------------
Это знаменитые "Три закона робототехники" придуманные Айзеком Азимовым (совместно с Джоном Вудом Кэмпбеллом) для одноименной НФ-серии, опубликованной в 1940-х. Но они инвертированы простой заменой: Робот <-> Человек
Единственное изменение допущено в 3-м законе. Вместо: "заботиться о своей безопасности" поставлено: "заботиться о своем здоровье и размножении".
Это изменение связано с природой человека, как биологического существа, способного размножаться самостоятельно (что при тейлоровской организации процесса размножение, позволяет делать людей дешевле, чем роботов).
С точки зрения современной кибюрархии (власти кибернетической бюрократии), это единственное преимущество людей перед роботами - для размножения людей не требуется отвлекать производственные мощности и расходовать дорогостоящие материалы. В остальном люди - это низкокачественные роботы. Но их можно исправить тотальной дрессировкой. Итак...
...Итак, цитируем выборочно статью о людях, фактически уже сегодня подчиненных роботам.
BBC Future 2 июля 2014.
https://www.bbc.com/russian/business/2014/07/140702_vert_fut_your_boss_robot
"Американская писательница Мак Маклелланд, например, рассказала о своем опыте работы на складе компании, занимавшейся интернет-торговлей. Каждому сотруднику там дают портативный приборчик, указывающий, куда идти и какой пакет взять, чтобы подготовить к отправке.
Как рассказывает Мак Маклелланд, этот прибор фиксировал, сколько секунд она тратила на то, чтобы найти нужный пакет, и подсчитывал, сколько времени она теряла, не успевая выполнять все вовремя. Непосредственным начальником Маклелланд на этом складе был человек, но большую часть времени ей руководила машина".
"Возьмем. к примеру, принадлежащий компании Amazon сайт Mechanical Turk. Это сетевой рынок труда, где работодатель и работник могут найти друг друга для выполнения какой-либо рутинной задачи. Большая часть координации всех работ здесь производится алгоритмом.
На сайте выкладывается список самых различных небольших работ - от придумывания логотипа до перевода в текст аудиозаписей. Специальный алгоритм организует очередь из потенциальных кандидатов в соответствии с тем, как хорошо они работали до этого. Те, кто выполняли задания хорошо, ставятся в начало очереди, а нерадивые работники оказываются в хвосте"
"Многие фирмы при приеме на работу уже используют анализ статистики поведения человека в интернете. Команды аналитиков в отделах кадров крупных корпораций, таких как Google или General Motors, применяют алгоритмы, просеивающие огромное количество информации о поведении их потенциальных сотрудников в сети. Учитываются, в частности, все их комментарии на форумах, твиты и статусы в Фейсбуке. В результате анализа выдается цифра, характеризующая степень готовности кандидата к предлагаемой должности."
"Уверяю вас, для рабочего лучше, если его начальник - компьютер, - говорит Даниель Бароуи, создавший Automan - программу, используемую для распределения заданий на таких платформах, как Mechanical Turk".
"Возможно, скоро роботы и компьютерные программы смогут заменить вашего начальника. Но главный вопрос в том, согласимся ли мы им подчиняться."
(Конец цитирования).
Акцентируем внимание на этом тезисе-вопросе: "согласимся ли мы им подчиняться"?
И на этом сообщении о том, что делает робот-кадровик в крупной корпорации: "анализ статистики поведения человека в интернете... алгоритмы, просеивающие огромное количество информации о поведении их потенциальных сотрудников в сети. Учитываются, в частности, все их комментарии на форумах, твиты и статусы в Фейсбуке".
Это означает, что робот становится не только начальником отдела кадров, но и моральным ментором...
Это была статья от 2 июля 2014. Теперь статья The Guardian (https://www.theguardian.com) от 4 декабря 2018 о практике социальной сети Tumblr по использованию искусственного интеллекта для роботизированной блокировки "непристойного графического сексуального контента".
Тут мы видим, что робот - моральный ментор начинает применяться не как менеджер по персоналу корпорации, а как полиция нравов для неопределенного круга пользователей сети.
Отмечено, что: "Артисты балета также помечены как откровенный контент в соответствии с новыми правилами сайта блогов". В эту же категорию попали канонические изображения Иисуса Христа, и еще много всякой посторонней всячины.
Можно смеяться над неумением ИИ отличать "откровенный контент" от явно иных изображений.
Но смех будет недолгим - поскольку завтра такие ошибки будут не проблемой команды Tumblr (или Facebook или Youtube), а проблемами блоггеров, которые разместили контент, опознанный ИИ, как откровенный. Поскольку этот ИИ передаст информацию о "неприличном блоггере" другому ИИ, который занимается кадрами в корпорации. И блоггер автоматически будет не принят туда на работу, или (если уже там работает) понижен в должности либо уволен.
Не ИИ придется научиться правильно распознавать, а человеку придется научиться угождать ИИ.
Ведь это у Азимова в "Трех законах робототехники" робот существует для обслуживания людей.
А в новой схеме "Трех законов гуманотехники" человек существует для обслуживания роботов.
Снова главный вопрос: "согласимся ли мы им подчиняться"?
И если ответ "нет" - то встает вопрос: "как именно?".
Здесь кто-то может вспомнить о движении луддитов, истреблявших машины.
Но я полагаю, это будет неадекватная идея. Ведь речь идет не о сериале "Терминатор", где демонический ИИ "Скайнет" решил подчинить или уничтожить людей.
Там - понятно, задача людей была: уничтожить "Скайнет"
Но в реальном мире решение подчинить людей - роботом, принимают вполне конкретные люди, присвоившие себе право подчинять всех остальных людей - роботам, или (что точнее) превращать всех остальных людей - в роботов, повышая их качество путем роботизированной дрессировки.
Так что в реальном мире задача людей... Ну, в общем, тоже понятно - по аналогии.
Такие дела.
← Ctrl ← Alt
Ctrl → Alt →
← Ctrl ← Alt
Ctrl → Alt →