A
A
A

Цвет сайта

A
A
Обычная версия
Главная - Новости - Преподаватели Университета Лобачевского вошли в состав авторского коллектива Белой книги этики в сфере искусственного интеллекта

Преподаватели Университета Лобачевского вошли в состав авторского коллектива Белой книги этики в сфере искусственного интеллекта

Книга была представлена в Москве 12 декабря 2024 года в рамках Международной конференции AI Journey («Путешествие в мир искусственного интеллекта»)

На международной конференции AI Journey состоялась презентация Белой книги этики в сфере искусственного интеллекта, которую подготовила Комиссия по реализации кодекса этики ИИ Альянса в сфере ИИ. Преподаватели ННГУ- доцент кафедры журналистики, заместитель директора Института филологии и журналистики по методической работе, научный руководитель магистерской программы «Искусственный интеллект и журналистика данных» Людмила Макарова и директор АНО «Центр развития экспертизы ИИ», преподаватель кафедры журналистики, член Комиссии по реализации Кодекса этики в сфере ИИ Илья Померанцев вошли в состав авторского коллектива м приняли активное участие в подготовке разделов, посвященных этическим аспектам применения технологий генеративного ИИ и актуальным вопросам этики использования ИИ в сфере образования.

Следует отметить, что Белая книга этики в сфере искусственного интеллекта – это подробный и тщательно структурированный обзор острых этических вопросов, возникающих в процессе внедрения и функционирования технологий прикладного искусственного интеллекта в различных областях жизни современного общества.

При составлении книги учитывались актуальные практические исследования, международные документы, мнения разработчиков и пользователей, собранные Комиссией по реализации кодекса этики в сфере ИИ.

«Работа над Белой книгой этики в сфере искусственного интеллекта продолжалась почти год, с ноября 2023 года по сентябрь 2024 года. Это был по-настоящему интересный и творческий процесс, основанный на стремлении осмыслить существующие практики и сфере ИИ и понять перспективы его использования в нашей жизни. Образование- одно из магистральных направлений применения технологий искусственного интеллекта, но вместе с тем, именно эта сфера предполагает необходимость минимизации рисков утраты контроля над образовательным процессом. Хочу выразить благодарность директору ИИТММ Университета Лобачевского Николаю Золотых и региональному директору блока «Технологии» СБЕР в Нижнем Новгороде   Алексею Солодовникову за поддержку и помощь в работе: их экспертные оценки помогли уточнить сложные аспекты практического применения норм этики в сфере ИИ. Замечательно, что наш Университет представлен в Комиссии по реализации Кодекса этики в сфере ИИ, это свидетельствует о высоком статусе в системе развития высшего образования в сфере ИИ», – отметила Людмила Макарова.

«Многие консервативно настроенные эксперты выступают за жесткий контроль использования систем на базе ИИ. Те, кто уже непосредственно разрабатывают подобные технологии, наоборот, видят в них потенциал технологического и социального развития общества. В то же время, необходимо учитывать риск дискриминации и предвзятости, которые могут быть встроены в алгоритмы ИИ. Это может привести к несправедливому обращению с отдельными группами населения, что нарушает основные принципы равенства и справедливости. В связи с этим, разработка этических рекомендаций основывается на строгих критериях прозрачности, объяснимости и ответственности за действия систем на базе ИИ»- считает Илья Померанцев.

Справка. Альянс в сфере искусственного интеллекта (ИИ), созданный в 2019 году, объединяет ведущие технологические компании для совместного развития компетенций и ускоренного внедрения искусственного интеллекта в образовании, научных исследованиях и в практической деятельности бизнеса и ставит задачу стать центром развития искусственного интеллекта и обеспечить технологическое лидерство страны на глобальном рынке. Одним из базовых документов Альянса в сфере ИИ является Кодекс этики в сфере ИИ, который ННГУ им. Н.И. Лобачевского подписал в 2023 году.

Все новости