Джеффри Хинтон, лауреат Нобелевской премии в области вычислительной техники, предупреждает о рисках и проблемах искусственного интеллекта
Легендарный ученый Джеффри Хинтон, чьи работы по нейронным сетям привели к созданию таких проектов, как ChatGPT и Google Bard, выражает опасения о технологии, которую он развивал на протяжении всей жизни.
По словам профессора, жестокая конкуренция среди крупных компаний IT может привести к огромному количеству фейковых изображений и текста, что может привести к тому, что люди больше не смогут отличить правду от лжи. В интервью, Хинтон рассказал о своих опасениях и рассказал, что, хоть он и был доволен работой на Google, запуск нового поисковика Bing, который был укреплен технологией OpenAI, заставил его уйти и говорить открыто о рисках AI.
По словам профессора, жестокая конкуренция среди крупных компаний IT может привести к огромному количеству фейковых изображений и текста, что может привести к тому, что люди больше не смогут отличить правду от лжи. В интервью, Хинтон рассказал о своих опасениях и рассказал, что, хоть он и был доволен работой на Google, запуск нового поисковика Bing, который был укреплен технологией OpenAI, заставил его уйти и говорить открыто о рисках AI.
Хинтон также высказал свои опасения, связанные с возможной заменой рутинных профессий и даже угрозой для человечества со стороны AI, который может создавать свой собственный код.
По словам Хинтона угроза того, что искусственный интеллект станет умнее человека, гораздо ближе, чем считалось ранее
Джеффри Хинтон рассказывает о том, что создаваемый цифровой интеллект способен обучаться лучше, чем человеческий мозг, и предупреждает, что он представляет экзистенциальную угрозу для человечества. Он объясняет, что цифровой интеллект обладает в тысячи раз большими базовыми знаниями, чем мозг, несмотря на то, что его возможности составляют одну сотую часть. Более того, они могут обучаться и общаться друг с другом гораздо быстрее, чем мозг, использующий более слабые алгоритмы обучения. Он объясняет, что система Palm компании Google обнаружила, что эти ИИ могут даже объяснить, например, почему шутки смешные, предполагая, что они понимают некоторые вещи лучше, чем люди, и указывает на лучшие способы передачи информации в сети.
Хинтон рассматривает вопросы, связанные с чувствительностью ИИ, отмечая, что, хотя люди утверждают, что ИИ беспринципен, не всегда ясно, что означает это определение.
Кроме того, угрозы, исходящие от ИИ, включают в себя лишение рабочих мест, затруднение понимания что правда, а что нет (риск распространения fake news и управление человеческим сознанием) и усиление социально-экономического неравенства. Для решения этих проблем Хинтон предлагает ввести строгие правила, предусматривающие уголовную ответственность за создание фальшивых видео-роликов и изображений (с целью обмана), сгенерированных ИИ, как это происходит в случае с фальшивыми деньгами.
Ведущий исследователь интеллекта Джеффри Хинтон также предупреждает об экзистенциальной угрозе, исходящей от ИИ. Он упоминает о риске того, что эти машины станут сверхпродвинутымии отберут контроль у людей. Затем он объясняет, что Китай, США и Европа заинтересованы в том, чтобы этого не произошло, и должны работать вместе, чтобы избежать развития опасного ИИ. Он также представляет Google как ответственного технологического гиганта, подчеркивая при этом необходимость для тех, кто разрабатывает эти машины, много экспериментировать, чтобы исследователи понимали, как сохранить контроль над этим ИИ.
Тем не менее Джеффри Хинтон признает полезный вклад цифровой аналитики в целом ряде областей, включая медицину, предсказание стихийных бедствий и понимание изменения климата. И говорит, что он не согласен с идеей приостановить развитие ИИ, предлагая вместо этого использовать эквивалентные ресурсы для понимания и предотвращения негативных последствий ИИ. Хинтон подчеркивает текущую неопределенность, связанную с развитием сверхинтеллекта, и необходимость для человечества упорно работать над тем, чтобы будущее было оптимизировано к лучшему.
Хинтон рассматривает вопросы, связанные с чувствительностью ИИ, отмечая, что, хотя люди утверждают, что ИИ беспринципен, не всегда ясно, что означает это определение.
Кроме того, угрозы, исходящие от ИИ, включают в себя лишение рабочих мест, затруднение понимания что правда, а что нет (риск распространения fake news и управление человеческим сознанием) и усиление социально-экономического неравенства. Для решения этих проблем Хинтон предлагает ввести строгие правила, предусматривающие уголовную ответственность за создание фальшивых видео-роликов и изображений (с целью обмана), сгенерированных ИИ, как это происходит в случае с фальшивыми деньгами.
Ведущий исследователь интеллекта Джеффри Хинтон также предупреждает об экзистенциальной угрозе, исходящей от ИИ. Он упоминает о риске того, что эти машины станут сверхпродвинутымии отберут контроль у людей. Затем он объясняет, что Китай, США и Европа заинтересованы в том, чтобы этого не произошло, и должны работать вместе, чтобы избежать развития опасного ИИ. Он также представляет Google как ответственного технологического гиганта, подчеркивая при этом необходимость для тех, кто разрабатывает эти машины, много экспериментировать, чтобы исследователи понимали, как сохранить контроль над этим ИИ.
Тем не менее Джеффри Хинтон признает полезный вклад цифровой аналитики в целом ряде областей, включая медицину, предсказание стихийных бедствий и понимание изменения климата. И говорит, что он не согласен с идеей приостановить развитие ИИ, предлагая вместо этого использовать эквивалентные ресурсы для понимания и предотвращения негативных последствий ИИ. Хинтон подчеркивает текущую неопределенность, связанную с развитием сверхинтеллекта, и необходимость для человечества упорно работать над тем, чтобы будущее было оптимизировано к лучшему.
Крестный отец ИИ отмечает, что AI может выйти из под контроля, если люди не будут осторожны.
«Один из способов, как эти системы могут избежать контроля, — это написание собственного компьютерного кода, чтобы модифицировать себя, и это то, о чем мы должны серьезно беспокоиться».
"Искусственный интеллект, благодаря быстро развивающимся технологиям, может выйти за пределы человеческого контроля уже через пять лет", предупредил Хинтон в интервью.
«Один из способов, как эти системы могут избежать контроля, — это написание собственного компьютерного кода, чтобы модифицировать себя, и это то, о чем мы должны серьезно беспокоиться».
"Искусственный интеллект, благодаря быстро развивающимся технологиям, может выйти за пределы человеческого контроля уже через пять лет", предупредил Хинтон в интервью.
