Введение и предыстория:

Искусственный интеллект Искусственный интеллект и концепции машинного обучения являются одной из новых технологий, которые автоматизируют и моделируют человеческий интеллект. ИИ изобрел специалист по данным по имени Джон Маккарти, который занимается построением моделей данных, анализом данных и предварительной обработкой данных.

По его словам, «Каждый аспект обучения или любая другая характеристика интеллекта в принципе могут быть описаны настолько точно, что их можно будет смоделировать с помощью машины». Будут предприняты попытки найти, как заставить машины использовать язык, формировать абстракции и концепции, решать проблемы, которые сейчас остаются за людьми, и улучшать себя».

Растущий спрос на искусственный интеллект неоспорим. Согласно статистике, представленной ИТ-департаментом США, ожидается, что к 2022 году он достигнет 50 миллиардов долларов, а к 2022 году — 110 миллиардов долларов в год. Многие правительства и банки вкладывают значительные средства в беспристрастное развертывание в качестве неотъемлемой стратегии. Air — это технология, которая повышает эффективность процессов, предоставляет аналитические данные и дает машинам возможность принимать беспристрастные решения.

Преимущества ИИ и машинного обучения:

Есть огромные преимущества, которые дает машинам возможность принимать решения или помогать в принятии решений.

1. Устранение человеческих ошибок и предвзятых решений: использование ИИ устранит риск человеческих ошибок и предвзятых решений. Этого можно достичь, создав набор правил для прозрачного управления/процесса, и ИИ обеспечит соблюдение правил везде, где используется модель или процесс ИИ. Например, многие человеческие ошибки устраняются с помощью ИИ в прогнозировании погоды.

2. Машины/роботы с искусственным интеллектом защищают людей. Одним из основных преимуществ, достигнутых людьми с помощью искусственного интеллекта, является использование интеллектуальных машин в опасных зонах. Миссия на Марс, разведка редких полезных ископаемых Земли в океанах и спасательные операции — вот несколько разнообразных примеров.

3. Доступность 24x7: машины могут работать больше, чем люди, потому что их рабочий цикл не составляет 9–5 часов в день. Использование моделей/процессов на основе ИИ помогает операциям предоставлять услуги с перерывами. Образовательные учреждения, банки и службы поддержки используют ИИ-ботов для эффективного решения вопросов.

4. Цифровая помощь в повторяющихся задачах: искусственный интеллект и машинное обучение могут прогнозировать действия на основе исторических данных. Использование ИИ в нашей жизни повышает производительность и позволяет выполнять множество мелких утомительных работ. Например, отправка персонализированного ответа с благодарностью в зависимости от характера содержимого входящей почты. телефоны используют интеллектуальную помощь Cortana, которая может назначать встречи, напоминать об отсутствии связи, выполнять последующие задачи, предоставлять планировщик путешествий и прогнозировать лучший маршрут.

Что такое этика ИИ? Определите и обсудите этические проблемы:

Этика ИИ — это система моральных принципов и методов, предназначенных для разработки и ответственного использования технологий искусственного интеллекта. Поскольку ИИ стал неотъемлемой частью продуктов и услуг, организации начинают разрабатывать этические кодексы ИИ.

Какова важность этических вопросов в ИИ?

Как люди, мы защищаем свои интересы и не хотим наносить ущерб экосистеме человеческого самоуважения и прав первородства, определенных приемлемым общим правом. Со временем люди пришли к выводу, что, чтобы жить вместе, мы будем поддерживать мир, частную жизнь, право на самовыражение, социальную терпимость и ответственность за защиту окружающей среды.

ИИ — это машина, и с его интеллектом мы ожидаем, что он будет вести себя по тому же общему закону, который установлен в нынешнем современном обществе. Поскольку ИИ не является полностью автономным телом в своем интеллектуальном мышлении, и у каждого ИИ есть создатель, важно защищать других, используя такие принципы, как справедливость, ответственность и отказ от оружия.

Сегодня ИИ используется в самых разных отраслях, включая розничную торговлю, цепочку поставок, управление, здравоохранение, оборону, производство и окружающую среду. После определения этических проблем, которые, как я понял, существуют, включая ссылку, взятую из всестороннего исследования Delphi.

ØОтсутствие нестандартного мышления

Ø Неправомерное использование личной информации.

Ø Дезинформация и глубокие фейки.

Ø Отсутствие надзора и принятие ответственности.

Ø Высокая стоимость создания, высокая стоимость обслуживания, ремонта более крупных сложных машин

Ø Сделать людей ленивыми

Ø увеличение безработицы

Ø Никаких эмоций / человеческих отношений

Ø Отсутствие уважения к сотрудникам и клиентам.

Ø Нравственное использование данных и ресурсов.

Ø Ответственное внедрение прорывных технологий.

Ø Стоимость инноваций.

Ø Нанесение вреда физической неприкосновенности.

Ø Отсутствие доступа к государственным услугам.

Ø Отсутствие доверия.

Ø «Пробуждение» ИИ.

Ø Проблемы с безопасностью.

Ø Отсутствие качественных данных.

Сценарии: «Этические» опасения, что ИИ может принимать важные решения в таких отраслях, как корпорация и правительство.

Искусственный интеллект может спровоцировать войну между странами, стать причиной структурного сбоя, выставить невиновного преступником или создать армию неэлегантных роботов, порабощающих человечество. Это несколько этических границ.

1. Технологические предубеждения при манипулировании аналитикой при принятии решений в отношении больших данных:

аналитика больших данных также ставит этические проблемы. Большие данные создаются корпоративными гигантами, такими как Google, Facebook или Twitter. Это также связано с цифровыми устройствами, такими как телефоны и машины с датчиками. Эти датчики отправляют потоки с большим количеством данных, собираемых каждый день. некоторые крупные организации получают, управляют, анализируют и обмениваются большими данными в денежных целях. Аналитика больших данных создала новые рынки, где данные рассматриваются как продукт. Правительства получают контроль над слабыми странами, используя свои знания, организации потребляют и покупают других конкурентов, собирая большие данные и создавая идеи. Рост криптовалюты также является результатом того, что данные оцениваются как деньги и активы, а прибыли и убытки измеряются.

Короче говоря, это социальные, экономические и правительственные потенциальные все заинтересованные стороны, которые влияют на человека и окружающую среду, регулируя и управляя процессом анализа больших данных.

2. Контроль, мораль и баланс сил ИИ:

С появлением большего количества машинных решений человечество подвергается большему риску, чем когда-либо прежде. Решение на основе данных, собранных из необъективных источников и не отражающих необходимых показателей, может привести к запуску ракеты, аварии, попыткам угона, вторжению, денежным потерям.

3. Забота об окружающей среде, гуманности и конфиденциальности:

Это восстание и наиболее важные проблемы, которые угрожают человечеству, продвигающемуся в области ИИ без надлежащего законодательства. ИИ основан на данных, и сбор всех видов данных может быть использован против человека со смертельным исходом. Точно так же использование сбора данных об окружающей среде может повлиять на людей, живущих в этой среде обитания.

Рекомендации:

1. Нам необходимо интегрировать этику в качестве фундаментального учения на всех уровнях образования, чтобы пользователи и создатели осознали опасности и границы создания ИИ.

2. Как и любое другое изобретение, люди создали меры безопасности. ИИ, созданный для чувствительных установок, должен защищать физическое и электрическое окружение. Мы идентифицируем, определяем, расставляем приоритеты на основе чувствительности создания ИИ и юридически регистрируем его как актив.

3. Аналитика больших данных — ключевой источник для создания моделей машинного обучения и ботов ИИ. Учет неприкосновенности частной жизни и окружающей среды защитит граждан от опасностей. На международном уровне должны быть приняты надлежащее законодательство и этический кодекс в виде хартии, которые можно использовать в качестве общей основы для защиты конфиденциальной информации.

4. Мы должны определить ИИ как актив и, следовательно, мы должны включить его в нашу экосистему производителя, потребителя, дистрибьютора и клиентов.

Рекомендации

1. Искусственный интеллект для лучшего будущего. 2021: 35–53. PMCID: PMC7968615, опубликовано в сети 18 марта 2021 г.

2. http://openroboethics.org/

3. https://www.aiethicist.org/

1. https://aiethics.princeton.edu

5. https://whatis.techtarget.com

6. https://bernardmarr.com/the-7-biggest-ethical-challenges-of-artificial-intelligence/

7. https://towardsdatascience.com/

8. https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/

9. Ида Асади Сомех, Кристоф Ф. Брейдбах, Майкл Даверн и Грэм Шанкс. 2016. Этические последствия анализа больших данных. — июнь 2016 г.

Конференция: Европейская конференция по информационным системам (ECIS) В: Стамбул, Турция

10. https://www.researchgate.net/publication/308024119_ETHICAL_IMPLICATIONS_OF_BIG_DATA_ANALYTICS

11. Дэвисон, Р. М. 2000. «Профессиональная этика в информационных системах», Сообщения Ассоциации информационных систем (3), с. Статья 8.

12. Дахиг, К. 2012 г. Как компании узнают ваши секреты?, New York Times (доступно по адресу http://www.nytimes.com/2012/02/19/magazine/shopping-habits.html?_r= 0).

13. Эйнингс М.М. и Ли Г.М. 1997. «Информационная этика: исследовательское исследование с международной точки зрения», Журнал информационных систем (11:1), стр. 1–17.

14. Экбиа Х., Маттиоли М., Купер И., Араве Г., Газинежад А., Боуман Т., Сури В.Р., Цоу А., Вайнгарт С. и Сугимото С.Р. 2015. «Большие данные, большие дилеммы: критический обзор», Журнал Ассоциации информационных наук и технологий (66:8), стр. 1523–1545 (doi: 10.1002/asi.23294).

15. ЛаВалле С. и Лессер Э. 2013 г. «Большие данные, аналитика и путь от идей к ценности», MIT Sloan Management Review. Льюис, П. В., 1985. «Определение «деловой этики»: как прибивать желе к стене», Журнал деловой этики, стр. 377–383 (doi: 10.1007/BF02388590).

16. Майер-Шенбергер, В., и Цукьер, К. 2013. «Большие данные: революция, которая изменит то, как мы живем, работаем и думаем»,

17. Хоутон Миффлин Харкорт. Мингерс, Дж., и Уолшем, Г. 2010. «На пути к этическим информационным системам: вклад этики дискурса», (34: 4), стр. 833–854 (doi: статья).

18. Мердок, Т. Б., и Детски, А. С. 2013. «Неизбежное применение больших данных в здравоохранении», Джама (309:13), стр. 1351–1352 (doi: 10.1001/jama.2013.393).