3 шага навстречу этике искусственного интеллекта
Как сделать будущее искусственного интеллекта безопаснее с помощью этики?
Есть два мнения о будущем искусственного интеллекта (ИИ):
- Утопический взгляд: интеллектуальные системы откроют новую эпоху просвещения, где люди свободны от работы во имя достижения более благородных целей. Системы ИИ будут запрограммированы на лечение болезней, справедливое разрешение споров и улучшение нашего человеческого существования.
- Апокалиптический взгляд: интеллектуальные системы украдут нашу работу, превзойдут людей, станут использоваться в военных целях и будут определять будущее над текущими потребностями. Наши сомнительные усилия по их контролю покажут только наши собственные недостатки и плохую способность применять мораль к технологиям, которые мы не можем контролировать.
Как и в большинстве случаев, истина, вероятно, где-то посередине.
Независимо от того, где правда, важно знать, как люди могут влиять на ИИ по мере развития технологий. Одна идея заключается в том, что люди в значительной степени будут формировать сознательность или моральные устои ИИ. Но как мы это сделаем? И как мы можем применить этику к ИИ, чтобы предотвратить худшее?
Искусственный интеллект для руководителей
Нужно понимать, чего вы хотите добиться с помощью ИИ. Цели у всех разные, поэтому и способы применения ИИ отличаются друг от друга. С нашим руководством вы можете интегрировать углубленную аналитику, включая ИИ, в свою стратегию. Тем самым можно понять сильные и слабые стороны различных методов на основе ваших целей.
Отношения человека и искусственного интеллекта
Сила систем глубокого обучения в том, что они определяют собственные параметры или характеристики. Просто дайте им задание или задайте цель, укажите данные, и они справятся с остальным. Например, возможность автонастройки в SAS Visual Data Mining и инструментах машинного обучения может выявить лучший результат самостоятельно. Но люди по-прежнему являются наиболее важной частью процесса.
«Люди решают проблемы, а не машины», - объясняет Мэри Бет Айнсворт, специалист по искусственному интеллекту в SAS. «Машины собирают информацию, затем программируют и решают проблему автоматически, основываясь на человеческих решениях».
В то время как будущие системы ИИ смогут собирать собственные данные, большинство современных систем полагаются на людей, чтобы обеспечить входные параметры, включая данные и наилучший результат, как сказано в определении обучения с подкреплением. Когда вы просите алгоритм определить наилучший способ достижения этого результата, вы не представляете, как машина решит проблему. Вы просто знаете, что у нее получится лучше, чем у вас.
Учитывая нынешние отношения между людьми и ИИ, мы можем совершить несколько шагов, чтобы с этической точки зрения контролировать результаты ИИ-проектов. Давайте начнем с этих.
Люди решают проблемы, а не машины. Последние собирают информацию, затем программируют и решают проблему автоматически, основываясь на человеческих решениях. Mary Beth Ainsworth AI and Language Analytics Strategist SAS
Шаг 1: предоставлять лучшие данные
Алгоритмы ИИ обучаются с помощью набора данных, которые используются для информирования или построения алгоритма. Если ваш алгоритм идентифицирует кита как лошадь, очевидно, что вам нужно предоставить больше данных о китах (и лошадях). Аналогично, если ваш алгоритм идентифицирует животных как людей, вам необходимо предоставить больше данных о людях. Если ваш алгоритм принимает неточные или неэтические решения, это может означать, что было недостаточно данных для обучения модели или что обучение с подкреплением не соответствовало желаемому результату.
Конечно, также возможно, что люди невольно ввели неэтические значения в систему с помощью предвзятого выбора данных или неправильно назначенных значений подкрепления. В целом, мы должны убедиться, что входные данные и материалы, которые мы предоставляем, рисуют полную и правильную картину для алгоритмов.
Шаг 2: обеспечивать надлежащий надзор
Создать систему управления с закрепленными владельцами и заинтересованными сторонами для всех ИИ-проектов. Определить, какие решения вы будете автоматизировать с помощью ИИ, а какие потребуют участия человека. Взять на себя ответственность за все части процесса с учетом ответственности за ошибки ИИ и установить четкие границы для развития системы ИИ. Включить в этот процесс ответственность за алгоритмы мониторинга и аудита на регулярной основе, чтобы гарантировать соответствие плану и верную работу моделей.
Будь это дата-сайентист или специалист по этике, в любом случае кто-то должен нести ответственность за политику и протоколы ИИ, включая соблюдение стандартов. Возможно, когда-нибудь компании назначат главного за соблюдение этики ИИ. Но независимо от названия должности, кто-то должен нести ответственность за соответствие результатов и производительности заданным этическим рамкам.
Нам необходимо управление, контроль, мониторинг и совершенствование для стандартной аналитики, то же самое нужно для искусственного интеллекта. Однако последствия для ИИ грандиознее, потому что машины могут начать задавать вопросы и сами же находить ответы.
Шаг 3: учитывать последствия внедрения новых технологий
Чтобы отдельные лица могли обеспечивать соблюдение политики, технология должна позволять людям вносить изменения. Люди должны иметь возможность выбирать и корректировать учебные данные, контролировать источники данных и выбирать, как данным преобразовываться. Аналогичным образом, ИИ-технологии должны поддерживать надежное управление, включая доступ к данным и способность направлять алгоритмы, когда они неверны или работают за пределами этически определенных границ.
Невозможно предвидеть все потенциальные сценарии с ИИ, но важно рассмотреть возможности и установить средства контроля для положительного и отрицательного усиления. Например, введение новых, даже конкурирующих целей, может поощрить этические решения и идентифицировать неэтические как неправильные или ошибочные. Система ИИ, предназначенная для придания равного веса качеству и эффективности, даст результаты, отличные от системы, полностью ориентированной на эффективность. Кроме того, проектирование ИИ-системы с несколькими независимыми и противоречивыми целями может добавить ответственность системе.
Не избегайте этики искусственного интеллекта
ИИ может повысить безопасность автомобиля и диагностировать рак, и он также может выбирать цели для крылатых ракет. Все возможности ИИ имеют значительные этические последствия, которые необходимо обсуждать с разных точек зрения. Как мы можем гарантировать, что этическими нормами для ИИ не будут злоупотреблять?
Три вышеуказанных шага - это только начало. Они помогут вам начать трудный путь разработки этических рекомендаций для ИИ в вашей компании. Возможно, вы не решитесь воплотить этическую политику, но мы не можем избежать этой темы. Так что не ждите. Начните обсуждение сейчас, чтобы определить границы, как обеспечить их соблюдение и даже как изменить их, если это необходимо.
Рекомендуем прочитать
- Fraud detection and machine learning: What you need to knowМашинное обучение является важной частью инструментария обнаружения мошенничества. Вот что вам нужно для начала работы.
- Finding COVID-19 answers with data and analyticsLearn how data plays a role in optimizing hospital resources, understanding disease spread, supply chain forecasting and scientific discoveries.
- Operationalizing analytics: 4 ways banks are conquering the infamous ‘last mile’Here are four examples across the banking industry that show how these leading organizations followed a clearly defined path to conquer the infamous 'last mile' of analytics.
- ИИ в производстве: новые возможности для информационных и операционных технологийОпрос об ИИ показывает, что лидеры и первопроходцы в ИИ достигают значительных успехов, выявляют и расширяют возможности работы с ИИ, используя все больше и больше отделов в своих организациях.