3 шага навстречу этике искусственного интеллекта
Как сделать будущее искусственного интеллекта безопаснее с помощью этики?
Есть два мнения о будущем искусственного интеллекта (ИИ):
- Утопический взгляд: интеллектуальные системы откроют новую эпоху просвещения, где люди свободны от работы во имя достижения более благородных целей. Системы ИИ будут запрограммированы на лечение болезней, справедливое разрешение споров и улучшение нашего человеческого существования.
- Апокалиптический взгляд: интеллектуальные системы украдут нашу работу, превзойдут людей, станут использоваться в военных целях и будут определять будущее над текущими потребностями. Наши сомнительные усилия по их контролю покажут только наши собственные недостатки и плохую способность применять мораль к технологиям, которые мы не можем контролировать.
Как и в большинстве случаев, истина, вероятно, где-то посередине.
Независимо от того, где правда, важно знать, как люди могут влиять на ИИ по мере развития технологий. Одна идея заключается в том, что люди в значительной степени будут формировать сознательность или моральные устои ИИ. Но как мы это сделаем? И как мы можем применить этику к ИИ, чтобы предотвратить худшее?
Искусственный интеллект для руководителей
Нужно понимать, чего вы хотите добиться с помощью ИИ. Цели у всех разные, поэтому и способы применения ИИ отличаются друг от друга. С нашим руководством вы можете интегрировать углубленную аналитику, включая ИИ, в свою стратегию. Тем самым можно понять сильные и слабые стороны различных методов на основе ваших целей.
Отношения человека и искусственного интеллекта
Сила систем глубокого обучения в том, что они определяют собственные параметры или характеристики. Просто дайте им задание или задайте цель, укажите данные, и они справятся с остальным. Например, возможность автонастройки в SAS Visual Data Mining и инструментах машинного обучения может выявить лучший результат самостоятельно. Но люди по-прежнему являются наиболее важной частью процесса.
«Люди решают проблемы, а не машины», - объясняет Мэри Бет Айнсворт, специалист по искусственному интеллекту в SAS. «Машины собирают информацию, затем программируют и решают проблему автоматически, основываясь на человеческих решениях».
В то время как будущие системы ИИ смогут собирать собственные данные, большинство современных систем полагаются на людей, чтобы обеспечить входные параметры, включая данные и наилучший результат, как сказано в определении обучения с подкреплением. Когда вы просите алгоритм определить наилучший способ достижения этого результата, вы не представляете, как машина решит проблему. Вы просто знаете, что у нее получится лучше, чем у вас.
Учитывая нынешние отношения между людьми и ИИ, мы можем совершить несколько шагов, чтобы с этической точки зрения контролировать результаты ИИ-проектов. Давайте начнем с этих.
Люди решают проблемы, а не машины. Последние собирают информацию, затем программируют и решают проблему автоматически, основываясь на человеческих решениях. Mary Beth Ainsworth AI and Language Analytics Strategist SAS
Шаг 1: предоставлять лучшие данные
Алгоритмы ИИ обучаются с помощью набора данных, которые используются для информирования или построения алгоритма. Если ваш алгоритм идентифицирует кита как лошадь, очевидно, что вам нужно предоставить больше данных о китах (и лошадях). Аналогично, если ваш алгоритм идентифицирует животных как людей, вам необходимо предоставить больше данных о людях. Если ваш алгоритм принимает неточные или неэтические решения, это может означать, что было недостаточно данных для обучения модели или что обучение с подкреплением не соответствовало желаемому результату.
Конечно, также возможно, что люди невольно ввели неэтические значения в систему с помощью предвзятого выбора данных или неправильно назначенных значений подкрепления. В целом, мы должны убедиться, что входные данные и материалы, которые мы предоставляем, рисуют полную и правильную картину для алгоритмов.
Шаг 2: обеспечивать надлежащий надзор
Создать систему управления с закрепленными владельцами и заинтересованными сторонами для всех ИИ-проектов. Определить, какие решения вы будете автоматизировать с помощью ИИ, а какие потребуют участия человека. Взять на себя ответственность за все части процесса с учетом ответственности за ошибки ИИ и установить четкие границы для развития системы ИИ. Включить в этот процесс ответственность за алгоритмы мониторинга и аудита на регулярной основе, чтобы гарантировать соответствие плану и верную работу моделей.
Будь это дата-сайентист или специалист по этике, в любом случае кто-то должен нести ответственность за политику и протоколы ИИ, включая соблюдение стандартов. Возможно, когда-нибудь компании назначат главного за соблюдение этики ИИ. Но независимо от названия должности, кто-то должен нести ответственность за соответствие результатов и производительности заданным этическим рамкам.
Нам необходимо управление, контроль, мониторинг и совершенствование для стандартной аналитики, то же самое нужно для искусственного интеллекта. Однако последствия для ИИ грандиознее, потому что машины могут начать задавать вопросы и сами же находить ответы.
Шаг 3: учитывать последствия внедрения новых технологий
Чтобы отдельные лица могли обеспечивать соблюдение политики, технология должна позволять людям вносить изменения. Люди должны иметь возможность выбирать и корректировать учебные данные, контролировать источники данных и выбирать, как данным преобразовываться. Аналогичным образом, ИИ-технологии должны поддерживать надежное управление, включая доступ к данным и способность направлять алгоритмы, когда они неверны или работают за пределами этически определенных границ.
Невозможно предвидеть все потенциальные сценарии с ИИ, но важно рассмотреть возможности и установить средства контроля для положительного и отрицательного усиления. Например, введение новых, даже конкурирующих целей, может поощрить этические решения и идентифицировать неэтические как неправильные или ошибочные. Система ИИ, предназначенная для придания равного веса качеству и эффективности, даст результаты, отличные от системы, полностью ориентированной на эффективность. Кроме того, проектирование ИИ-системы с несколькими независимыми и противоречивыми целями может добавить ответственность системе.
Не избегайте этики искусственного интеллекта
ИИ может повысить безопасность автомобиля и диагностировать рак, и он также может выбирать цели для крылатых ракет. Все возможности ИИ имеют значительные этические последствия, которые необходимо обсуждать с разных точек зрения. Как мы можем гарантировать, что этическими нормами для ИИ не будут злоупотреблять?
Три вышеуказанных шага - это только начало. Они помогут вам начать трудный путь разработки этических рекомендаций для ИИ в вашей компании. Возможно, вы не решитесь воплотить этическую политику, но мы не можем избежать этой темы. Так что не ждите. Начните обсуждение сейчас, чтобы определить границы, как обеспечить их соблюдение и даже как изменить их, если это необходимо.
Рекомендуем прочитать
- What is synthetic data? And how can you use it to fuel AI breakthroughs?There's no shortage of data in today's world, but it can be difficult, slow and costly to access sufficient high-quality data that’s suitable for training AI models. Learn why synthetic data is so vital for data-hungry AI initiatives, how businesses can use it to unlock growth, and how it can help address ethical challenges.
- Finding COVID-19 answers with data and analyticsLearn how data plays a role in optimizing hospital resources, understanding disease spread, supply chain forecasting and scientific discoveries.
- Визуализация данных для отслеживания распространения коронавирусаSAS считает, что в такое нестабильное время очень важно иметь надежные источники информации о вирусе. Поэтому SAS создал отчет, который отображает состояние, местоположение, распространение и анализ тенденций развития коронавируса.
- Operationalizing analytics: 4 ways banks are conquering the infamous ‘last mile’Here are four examples across the banking industry that show how these leading organizations followed a clearly defined path to conquer the infamous 'last mile' of analytics.