#новости
Про ИИ, Chat GPT и Open AI
Только вчера мы радовались за обновление Chat GPT4 от Open AI и обсуждали, как ИИ перевернет образование, а сегодня уже новости. Илья Суцкевер все-таки уходит из компании. Что было ожидаемо, конечно. Если вы не следили за главной корпоративной драмой конца 2023 года, то напомню о событиях.
Open AI (к которой, как и ко всему передовому приложился Илон Маск), создатель Chat GPT, которая обещает сделать настоящий ИИ, упрощенно говоря, состоит из двух структур: коммерческой и некоммерческой. Коммерческая условно подчинена некоммерческой и нужна для генерации денег на исследования и разработки, которыми занимается некоммерческая. Коммерческой частью руководит Сэм Альтман, а некоммерческой руководит Совет директоров, но за кадром говорили, что рулил всеми исследованиями Илья Суцкевер (жил и школу закончил в Нижнем Новгороде, кстати).
И вот в ноябре Совет директоров увольняет одним днем Альтмана за то, что «он не всегда был честен». Какой конфликт там на самом деле произошел, до сих пор не до конца понятно. Были разные версии. Увольнение не сошло с рук. Сэм Альтман в компании всегда был звездой, а Илья нет (кстати, это одна из версий конфликта). К тому же Альтман приносил в компанию реальные деньги, например, 10 миллиардов от Microsoft. Весь персонал коммерческой части сказал, что увольняется за Сэмом. Уже вечером того же дня, когда объявили об увольнении, Microsoft заявил, что приглашает Сэма и всех увольняющихся к себе на работу. Совет директоров почесал репу и признался, что ошиблись. В итоге персонал коммерческой части сказал: «Или Сэм и мы или Совет директоров». Было принято решение… полностью поменять состав Совета директоров, в частности, Илью оттуда выкинули. Такого в корпоративной Америке не было еще никогда, чтобы персонал увольнял СД в такие короткие сроки. Ну в общем, Сэм и компания вернулись. И конечно, все понимали, что конфликт даст о себе знать.
И вот Суцкевер все-таки уходит, прихватив с собой ключевого сотрудника Яна Лейке. Они вместе с Ильей возглавляли компанию по выравниванию AGI в Open AI, человеческим языком – задача по выравниванию сверхразума. Она была поставлена летом прошлого года, для нее была выделена отдельная команда, Суцкевер и Ян Лейке объявили, что выделяют 20% своей мощности на эту задачу и сделают это за 4 года. Под выравниванием понимается буквально следующее. «Люди не смогут надежно контролировать системы ИИ, которые намного умнее нас, - говорит Open AI, - поэтому ИИ потенциально опасен для человечества», выравнивание – это фактически, управление этими рисками.
И вот теперь новая драма. Теперь все обсуждают, что будет с тем самым выравниванием, если люди, ответственные за это из компании уходят, а в других компаниях, занимающихся ИИ, особо этим вообще не парятся? Нам стоит уже начать бояться?