
Пришло ли время для президентской комиссии по техноэтике?
Кому принадлежат ваши мысли? И другие важные вопросы, связанные с технологиями. (Фото: Pixabay)
В недавней статье в New York Times освещается растущая интеграция технологий и текстиля, и на ней изображена фотография тонкого золотого гнезда оптического волокна. В статье сообщалось, что эта новая «функциональная ткань» обладает дополнительным качеством, поскольку она «действует как оптический штрих-код для идентификации того, кто ее носит».
Это особенность или ошибка? Этот умный материал, безусловно, станет новой вехой в развитии технологий и рынка, разрушив личную конфиденциальность. Нужен ли на костюме из этого материала предупреждающий ярлык? Только потому, что у нас есть технологическая возможность сделать что-то подобное, не так ли?
Подобные вопросы можно было бы задать о внедрении технологии GPS в наши мобильные телефоны, беспилотных летательных аппаратах и файлах cookie, находящихся на нашем устройстве. устройства для своевременной записи и передачи нашей онлайн-активности. Прямо сейчас эти разговоры происходят в корпоративных залах заседаний, в средствах массовой информации, художественных книгах и фильмах, а также в академической среде. Но в стране не ведется широкого обсуждения этики постоянного цифрового посягательства на нашу жизнь. Не пора ли создать президентскую комиссию по техноэтике?
Такая комиссия могла бы взять пример с президентских комитетов, которые были созданы за последние 50 лет для изучения проблем, которые возникли в отношении биологических исследование. В 2001 году президент Джордж Буш создал Президентский совет по биоэтике (PCBE) для решения проблем, связанных с работой в области геномики и генной инженерии, в значительной степени вдохновленный достижениями в исследованиях и клонировании стволовых клеток.
PCBE не смог. остановить исследования, как и его преемница, нынешняя Президентская комиссия по изучению биоэтических проблем. Но это действительно форум высокого уровня для важных бесед между широкой и постоянно меняющейся группой ученых, специалистов по этике и гуманистов. Их обсуждения, в свою очередь, информируют местных, государственных и национальных политиков о возможных этических последствиях новаторских исследований в области биологии.
Результаты принимают форму голосования комиссий и отчетов. Например, после шести месяцев оживленных публичных дебатов PCBE 2001 в конечном итоге проголосовало 10-7 за рекомендацию разрешить биомедицинское клонирование (с нормативными положениями) на основе стволовых клеток, результат, который, казалось, оказал большое влияние на общенациональные дискуссии.
Группы университетов и другие наблюдательные комиссии, наблюдающие за исследовательскими проектами, рассматривают отчеты комиссии как показатели наилучшего понимания моральных, социальных и этических соображений. В Дартмуте, например, у нас есть Комитет по защите человеческих субъектов, который регулярно обсуждает более широкие вопросы во время рассмотрения предложений по исследованиям, в которых участвуют люди. Поскольку соответствующие группы в университетах по всей стране рассматривают вопрос об одобрении или предложении изменений к предлагаемым планам исследований, они могут направлять или, по крайней мере, подтолкнуть исследователей к нормам, установленным комиссией.
Что касается современных технологий, то эти типы разговоров кажутся меньше диалога и более широким заявлением. Например, различные ученые в новостях все чаще предупреждают нас об опасностях искусственного интеллекта.
Они выражают озабоченность по поводу наступления «сингулярности» - термина, придуманного изобретателем и пионером технологий Рэем Курцвейлом для обозначения время, когда машинный интеллект превосходит человеческий. Непонятно, как этот момент будет определен: например, хотя некоторые формы интеллекта уже готовы для «Терминаторного теста» (машины уже лучше людей в арифметике и игре в го), другие (например, художественное творчество или социальное развитие) интеллекта) кажутся вне такого конкурентного контекста. Но факт остается фактом: мы бездумно внедряем технологии, не обращая внимания на их контекст и последствия для общества и не обсуждая их.
В каком пункте важнее удобство? В качестве небольшого «мысленного эксперимента» рассмотрим технологии «чтения мыслей», которые исследуются в лабораториях нейробиологии по всему миру. Они нацелены на распознавание активности мозга, связанной с распознаванием изображений и слов.
Однажды технология сможет автоматически измерять эти измерения активности, интерпретировать их и сохранять на вашем компьютере или в облаке. (Представьте маркетинговый потенциал такой услуги: «С DayDreamer вы никогда не потеряете ни одной замечательной идеи!»)
Как общество решает, кому принадлежат мысли? Прямо сейчас это может зависеть от того, были ли у вас эти мысли на работе или дома. Возможно, ваш работодатель хочет, чтобы вы использовали это программное обеспечение из-за страха упустить хорошую идею, которую вы, возможно, отклонили. Легко представить себе государственные учреждения, у которых есть похожиежелания.
В таких фильмах, как Ex Machina, рассказывается о том, как люди взаимодействуют с искусственным интеллектом. Стив Троутон / Flickr Creative Commons
Литература и фильмы, кажется, являются форматами, которые в последнее время сделали больше всего, чтобы раскрыть возможности наших новых технологий. Такие фильмы, как «Ex Machina» и «Her», дают много поводов для размышлений о нашем взаимодействии с машинным интеллектом. Такие книги, как «Супер грустная сладкая история любви» и «Круг» (скоро выходит фильм) поднимают всевозможные вопросы о конфиденциальности и прозрачности. Подобные работы продолжают давнюю традицию искусства как стимул к широким общественным (и классным) дебатам. Я даже написал ответы на эти книги в рамках курса анализа сетевых данных, который я читал прошлой зимой в Дартмутском колледже. Почему бы не объединить такие неформальные и эпизодические разоблачения с официальными открытыми и взвешенными дебатами?
Президентская комиссия по техноэтике предоставит такую возможность. Беспокойство по поводу «сингулярности» может привести к появлению отчета о последствиях нерегулируемого Интернета вещей, а также увеличения численности роботизированной рабочей силы. Конфиденциальность - еще одна очевидная тема для разговора. По мере того, как все больше людей проживают в сети (сознательно или неосознанно), основное определение «частной жизни» постепенно трансформируется как соображениями безопасности, так и корпоративными интересами. Неуклонное размывание «я» в этом отношении было незаметным, но повсеместным, замаскированным под набор «улучшений пользовательского опыта» и «проблем безопасности».
С такими инициативами, как «право на забвение» »И недавние судебные иски против Google, связанные с поиском, Европейский Союз обратился в суд за обсуждением социальных последствий сбора информации и гегемонии его управления. В США также есть очевидные и важные юридические соображения, особенно в отношении гражданских свобод и, возможно, даже последствий для стремления к знаниям. Столкновение Apple и ФБР из-за разблокировки телефона предполагает, что значительная часть американского общества доверяет индустрии больше, чем правительство, когда дело касается цифровой политики.
Если судить по истории, корпоративные интересы не всегда хорошо согласованы с социальными товарами (см., среди прочего, автомобильную и табачную промышленность, а также социальные сети), хотя, конечно, иногда это так. Тем не менее, комиссия, в состав которой входят представители различных групп, участвующие в открытом разговоре, может служить для освещения различных интересов и проблем.
С учетом всего вышесказанного важно, чтобы формирование комиссии не служило в качестве административное и корпоративное прикрытие для введения контроля и политик. Акт создания форума для обсуждения не должен служить оправданием для выдачи приказов.
Бывший коллега, который работал в Президентском совете по биоэтике 2001 года, сказал мне, что в целом он был создан для рассмотрения последствий достижения в области биоинженерии, связанные с «вмешательством в условия жизни человека». Даже не заходя так далеко, чтобы рассматривать личные мысли, безусловно, в основе любого подхода лежат вопросы по таким темам, как носимые устройства, конфиденциальность, прозрачность, владение информацией и доступ к ней, трансформация рабочего места и сопутствующие последствия для самоопределения, самосовершенствования и человеческого взаимодействия. учет условий жизни человека.
Новые и воображаемые цифровые технологии имеют важные этические последствия. Люди начинают напрямую бороться с этими последствиями. Но мы не должны оставлять решения на обособленных площадках ограниченного масштаба. Скорее, как и в случае с внутренней работой человеческой биологии, мы должны придумывать социальные нормы в рамках громкого, публичного, совместного процесса.
Дэниел Н. Рокмор - профессор кафедры математики, вычислительной техники. Наука и компьютерные науки в Дартмутском колледже. Эта статья изначально была опубликована в The Conversation. Прочтите оригинальную статью.
комментариев