Сэм Альтман, генеральный директор OpenAI, высказал опасения по поводу Закона ЕС об искусственном интеллекте, который находится на стадии принятия законодателями. Последнее изменение закона расширило обязательства для создателей "моделей фундаментов" - крупномасштабных систем искусственного интеллекта, использующихся в таких сервисах, как OpenAI ChatGPT и DALL-E. Согласно The Financial Times, Альтман заявил, что если OpenAI не сможет соответствовать обязательствам, то компания может прекратить свою деятельность в Европе.
Однако на следующий день он попытался смягчить свое заявление и отметил продуктивные разговоры в Европе по поводу регулирования ИИ: "Очень продуктивная неделя разговоров в Европе о том, как лучше всего регулировать ИИ! мы рады продолжать работать здесь и, конечно, не планируем уезжать." - Сэм Альтман (@sama) 26 мая 2023 г.
Однако на следующий день он попытался смягчить свое заявление и отметил продуктивные разговоры в Европе по поводу регулирования ИИ: "Очень продуктивная неделя разговоров в Европе о том, как лучше всего регулировать ИИ! мы рады продолжать работать здесь и, конечно, не планируем уезжать." - Сэм Альтман (@sama) 26 мая 2023 г.
Тем не менее, он заявил, что такие системы, как ChatGPT, могут быть обозначены как "высокий риск" в соответствии с законодательством ЕС, и у OpenAI возможны технические ограничения. OpenAI должен будет соответствовать ряду требований безопасности и прозрачности. "Либо мы сможем решить эти требования, либо нет", - сказал Альтман. "Сужествуют технические ограничения на то, что возможно".
В дополнение к техническим проблемам, раскрытие информации, требуемое в соответствии с Законом ЕС об искусственном интеллекте, также представляет потенциальные бизнес-угрозы для OpenAI.
Закон требует, чтобы создатели базовых моделей раскрывали детальную информацию о своих системах и предоставляли резюме данных, защищенных авторским правом, используемых для обучения. OpenAI ранее раскрывала такую информацию, но остановила подобные действия, когда ее инструменты стали более ценными на коммерческом рынке. Альтман выразил опасения по поводу условий закона, утверждая, что если OpenAI не сможет соответствовать требованиям, компания может прекратить свою деятельность в Европе. Илья Суцкевер, соучредитель OpenAI, заявил в марте, что сохранение такой информации необходимо для остановки копирования работы компании.
Закон требует, чтобы создатели базовых моделей раскрывали детальную информацию о своих системах и предоставляли резюме данных, защищенных авторским правом, используемых для обучения. OpenAI ранее раскрывала такую информацию, но остановила подобные действия, когда ее инструменты стали более ценными на коммерческом рынке. Альтман выразил опасения по поводу условий закона, утверждая, что если OpenAI не сможет соответствовать требованиям, компания может прекратить свою деятельность в Европе. Илья Суцкевер, соучредитель OpenAI, заявил в марте, что сохранение такой информации необходимо для остановки копирования работы компании.
Комментарии Альтмана дали более полное представление о том, как OpenAI относится к регулированию. Он сообщил американским политикам, что регулирование, прежде всего, должно относиться к будущим, более мощным системам ИИ. В отличие от этого, Закон ЕС об искусственном интеллекте ориентирован на текущие возможности программного обеспечения ИИ, и это вызвало у Альтмана опасения.
Дебаты на французском новостной канале на тему "Отпугнет ли европейский закон о регулировании OpenAI?" - France 24
