Разработчик ChatGPT призывает законодательно регулировать ИИ — технологии развиваются пугающе быстро

Новости

Генеральный директор компании OpenAI Сэм Альтман (Sam Altman) во вторник 16 мая выступил в Конгрессе США с заявлением о потенциальных опасностях современных технологий искусственного интеллекта, созданных им и другими разработчиками в отрасли. Он призвал не только американское правительство, но и другие страны начать полноценное регулирование ИИ на законодательном уровне, ввести лицензионные требования для организаций и разработать ряд минимизирующих риски правил для таких супермощных и передовых генеративных систем, как GPT-4 и огромное количество подобных проектов.

По мнению Альтмана, который лично рекламировал огромные возможности и преимущества искусственного интеллекта для общественности, его активнейшее развитие с настораживающим самообучением как минимум вызывает озабоченность по некоторым вопросам, но в целом может «пойти совсем не тем путём» и в конечном итоге «нанести значительный вред миру». В качестве примеров участвовавший в заседании Гэри Маркус (Gary Marcus), основатель двух компаний в области ИИ и почётный профессор психологии и нейробиологии в Нью-Йоркском университете, привёл сразу несколько пугающих фактов: распространение убедительной дезинформации, вредные медицинские консультации, формирование новых биологических агентов, смещение людей с рабочих мест и манипулирование человеческими взглядами, убеждениями, целями и поведением. Один из крупнейших игроков рынка ИИ также «сильно обеспокоен» тем, что многочисленный фейковый контент, генерируемый глубоко несовершенным ИИ, оказывает решающее влияние на президентские выборы.

Как выглядят предложения, выдвинутые OpenAI и остальными участниками:

  • чётко определить опасность искусственного интеллекта и разные правила для разных сценариев;
  • сформировать специальное агентство по лицензированию критических технологий искусственного интеллекта, способных принести серьёзные последствия в глобальном масштабе;
  • перед публичным запуском системы искусственного интеллекта должны проводиться независимые аудиты с привлечением экспертов, которые могут подтвердить, что модель соответствует или не соответствует заявленным пороговым стандартам безопасности;
  • у пользователей должно иметься право отказаться от использования своих персональных данных для обучения ИИ-моделей и потребовать полного удаления сформированной базы;
  • установить прозрачные условия информирования пользователей о том, что они взаимодействуют с искусственным интеллектом, запрещать системы с нездоровыми манерами и привлекать компании к ответственности за развёртывание моделей, замеченных в нарушениях требований.

Большинство членов судебного подкомитета Сената по конфиденциальности, технологиям и праву поддержали идею тщательного надзора за применением искусственного интеллекта. Массовая приостановка разработки ИИ считается нереалистичной, поэтому законодатели не видят смысла даже пытаться — «мир не будет ждать, научное сообщество не собирается делать паузу и засовывание головы в песок не станет решением». Ещё сенаторам предстоит нормативно проработать проблему ущерба, приносимого от ИИ, так как «есть места, где риск экстремален». Такие ситуации не закончатся на судебных исках, а потребуют ограничений или даже полного запрета, особенно когда речь идёт о коммерческом вторжении в частную жизнь ради прибыли и решениях, влияющих на средства к существованию.

Скачать на ПК
Источник
Оцените статью
Dfiles.ru
Добавить комментарий

ugm7oh73g6t1ll67