Все говорят про чат-бот ChatGPT, а Microsoft вкладывает миллиарды долларов. Почему?

visibility 307
10 Фев 2023г. в 02:03

В конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но речь может идти о $10 млрд, выяснили в Bloomberg.

Чем известна OpenAI?
Американская компания занимается технологиями машинного обучения. Она была создана в 2015 году небольшой группой предпринимателей и исследователей искусственного интеллекта, в том числе Сэмом Альтманом (сейчас возглавляет компанию) и Илоном Маском. В 2018 году Альтман сделал компанию коммерческой, чтобы лаборатория могла собирать деньги на исследования. Тогда же Маск покинул ее совет директоров из-за возможного конфликта интересов.

Среди продуктов компании есть, например, система DALL-Е, которая по запросу пользователя создает изображение.

Но в настоящий момент их самый нашумевший продукт — это чат-бот ChatGPT. OpenAI создала несколько версий языковой модели GPT. Она обучается на текстах в интернете и может сгенерировать осмысленный ответ на вопрос. Главная особенность линейки GPT — она умеет генерировать текст по его началу, то есть учитывает контекст беседы.

Microsoft уже не в первый раз вкладывается в OpenAI: в 2019 году корпорация инвестировала в разработчика искусственного интеллекта $1 млрд. Всего же, по подсчетам издания The New York Times, к настоящему моменту вложения превысили $3 млрд. Эти средства пошли на оплату вычислительных мощностей, нужных для создания генеративных технологий искусственного интеллекта.

В обеих компаниях отмечают, что их общие цели гораздо больше, чем создание просто максимального эффективного чат-бота и помощника в программировании. Изначальная миссия OpenAI заключается в том, чтобы создать искусственный интеллект, который сможет делать все, что может человеческий мозг, и даже больше.

Что умеет ChatGPT
ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT (в январе 2023 года это GPT-3.5). Он был запущен в конце ноября 2022 года и сразу завирусился в Сети. Спустя всего неделю после запуска генеральный директор компании-разработчика Сэм Альтман сообщил, что число пользователей достигло 1 млн.

Его популярность — результат его возможностей. Как говорят сами разработчики, ChatGPT обучен "отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы".

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США. Пользователь Twitter (заблокирован в России) собрал масштабный тред с примерами использования ChatGPT. Он:

отвечает на сложные вопросы;
помогает программистам написать код;
генерирует тексты разных форматов — эссе, стихи, сценарии и т.п.;
дает медицинские советы и т.д.
А один дизайнер при помощи ChatGPT, MidJourney (создает художественное изображение на основе пользовательского запроса) и других инструментов с ИИ за выходные с нуля написал и проиллюстрировал книгу для детей.

Важная особенность — у ChatGPT есть "память". То есть он запоминает детали разговора, учится по ходу дела и может поддерживать открытый диалог, основываясь на той информации, которую пользователь предоставил ранее.

Сэм Альтман признает: ChatGPT достаточно хорош, чтобы создать обманчивое впечатление. Но он все еще сильно ограничен. "Было бы ошибкой полагаться на него в чем-то важном прямо сейчас. Это превью прогресса. Нам предстоит проделать большую работу над надежностью и достоверностью", — пишет он на своей странице в Twitter.

Важно отметить: официально ChatGPT недоступен в России, подключиться к нему можно, только используя VPN.

Что не так с ChatGPT

Так как чат-боты изучают новые навыки, осваивая большие объемы информации, размещенной в интернете, они могут смешивать реальные факты и ложь, генерировать предвзятые суждения и оскорбительные высказывания. Так, например, в 2016 году разработанный Microsoft чат-бот Tay быстро научился ругаться и использовать расистские высказывания. Сами создатели ChatGPT признают, что тот может давать совершенно неверные ответы, которые будут выглядеть вполне логично. Также они могут быть просто неактуальными, так как знания бота ограничены данными за 2021 год.

Чтобы не допустить генерации оскорбительного и разжигающего ненависть контента, в ChatGPT встроены определенные системы модерации:

он не высказывает личное мнение по любым вопросам;
не имеет расы и пола;
не исповедует религию.
Также у него есть фильтры, не дающие ему создавать тексты о том, как нарушать закон. Хотя в Сети пользователи уже научились обходить и это ограничение.

В целом бум генеративных систем повлек за собой новую волну обсуждения этических, юридических и экономических рисков внедрения ИИ в повседневную жизнь. Например, проблемой стало соблюдение авторского права. По сути, нейросети не создают оригинальный контент с нуля — они учатся на уже написанных людьми статьях, книгах, на фотографиях или нарисованных изображениях. Так, например, вскоре после широкого распространения MidJourney художники выступили с протестом. Многие из них настаивают, что использовать их работы без разрешения для обучения нейросетей как минимум неэтично. Впрочем, часть творцов видит в ИИ новый инструмент, который в комбинации с уже привычными позволяет добиться потрясающих результатов.

Встает вопрос и об авторском праве уже того контента, который создают сами системы с ИИ, обращают внимание эксперты. Они отмечают, что, например, согласно американскому законодательству об авторском праве под защиту подпадают только оригинальные произведения человеческого разума. Но что насчет совместной работы машины и человека? Ведь и ChatGPT, и MidJourney, и DALL-E 2 создают контент, отталкиваясь от запроса пользователя. Эксперты полагают, что так же, как авторское право защищает произведения, создающиеся с помощью цифровой камеры или графических планшетов, оно может рассматривать продукты типа ChatGPT как инструмент. Эксперты отмечают, что сейчас существует нечеткое правило, что машинные творения не имеют права на авторскую защиту, если только не обеспечен адекватный уровень вовлеченности человека. Но сколько это, четкого ответа пока нет.

Также способность ChatGPT "писать" довольно связные эссе вызывает обеспокоенность у преподавателей: в США ученики уже начали выдавать сгенерированные ботом работы за свои. Российские школьники, по данным некоторых СМИ, тоже это делают, но не так успешно и массово. Сами же OpenAI еще в 2019 году разработали инструмент (GPT-2 Output Detector), который определяет, с какой вероятностью текст был сгенерирован нейросетью. А 31 января 2023 года компания представила новый классификатор. На английском языке точность проверки высокая, на других — ниже. Также сервис лучше справляется с большими текстами — для коротких (до 1 тыс. знаков) он очень ненадежен. Есть и другие сервисы, позволяющие распознавать творение ИИ. Кроме того, в OpenAI разрабатывают технологию вотермарков для сгенерированных текстов. Как объяснил сотрудник компании Скотт Аарсон, в них будет скрытый криптографический сигнал, который позволит быстро определить авторство. Впрочем, часть преподавательского сообщества, так же как и художники, видит в подобных чат-ботах еще один инструмент, который можно использовать в будущем для обучения. Например, в соцсети TikTok (ограниченно работает в России) одна американская преподавательница предложила такую схему: часть эссе школьники должны написать сами, а часть отдать на откуп чат-боту. Затем вместе с одноклассниками на уроке они обсудят, кто автор какой части и почему те, кто прочитал/услышал эссе, так думают.

Журналисты и копирайтеры уже не первый год опасаются, что ИИ грозит подвинуть их на рынке труда. Например, медиаиздание BuzzFeed "наняло" на работу чат-бот. По словам управляющего BuzzFeed Ионы Перетти, искусственный интеллект должен будет поднять на новый уровень креатив и контент. Но люди все еще нужны — подавать идеи.

Наконец, заменят ли ChatGPT и ему "подобные" программистов? Вряд ли это случится в ближайшее время: чтобы получить от ChatGPT вменяемый результат, надо настолько детально и полно описать код словами, будто он уже написан. Сейчас ChatGPT пишет сравнительно простой код и сложные задачи ему не по зубам, но, если разбить такую задачу на блоки, а затем правильно подсказывать боту, направляя его, он может быть полезен, отметил эксперт в Forbes. Один его знакомый программист так видит перспективы в профессии: "Думаю, моей задачей станет надзор — я буду руководить командами роботов-программистов и делать то, что они все еще не могут. Например, придумывать оригинальные идеи для разных типов задач".

И это только часть вызовов, связанных с внедрением разных видов искусственного интеллекта.

Кому пока точно не угрожают генеративные системы типа ChatGPT, так это комикам: в издании The Wall Street Journal проверили — шутки у чат-бота выходят не очень смешные.

Что от сотрудничества с OpenAI получает Microsoft

Искусственный интеллект — одно из активно финансируемых направлений на рынке венчурных инвестиций (вложения в развивающийся бизнес или стартап, успех которого не гарантирован). По данным некоторых медиаресурсов, инвестиции в проекты в области ИИ в последние годы составляют 10% от всего вложенного венчурного капитала. Только в 2021 году ИИ-стартапы по всему миру собрали почти $70 млрд. Отраслевые эксперты выражают безграничный энтузиазм, когда речь заходит о перспективах сферы, отмечают в Bloomberg. По некоторым оценкам, к 2030 году ИИ внесет в мировую экономику дополнительно примерно $15,7 трлн.

Рыночные эксперты, в свою очередь, отмечают, что ИИ может стать новым "IT". Развитие области напоминает им развитие доткомов в конце 1990-х годов: связанные с искусственным интеллектом продукты выглядят многообещающими, хотя их перспективы не всегда до конца понятны.

Microsoft как минимум планирует внедрить ChatGPT в поисковик Bing, писали в Bloomberg со ссылкой на источники. Тогда тот сможет не просто выдавать ссылки на страницы с релевантной информацией, а сразу отвечать на вопрос. В издании The Information выяснили, что Microsoft раздумывает над тем, не добавить ли возможности ChatGPT по созданию и редактированию текстов в офисные приложения Word, PowerPoint и Outlook. Еще ранее они же и The Wall Street Journal сообщали: Microsoft рассчитывает, что наработки OpenAI в области искусственного интеллекта могут быть интегрированы также в облачный бизнес корпорации.

"В 2023 году мы увидим достижения, которых люди два года назад ожидали бы в 2033 году", — заявлял ранее президент и заместитель председателя Microsoft Брэд Смит в интервью Reuters. "Это будет чрезвычайно важно не только для будущего Microsoft, но и для будущего каждого".

В ближайшей перспективе технологии искусственного интеллекта позволят Microsoft расширить бизнес, увеличить доходы и конкурировать с Google и Meta (признана в России экстремистской организацией).

Для Google успех ChatGPT стал серьезным вызовом. Настолько, что в Сети его даже назвали "убийца Google". В корпорации, как пишет The New York Times, считают, что бот может представлять большую угрозу для их бизнеса. Мол, если поисковик с такой технологией будет сразу отвечать на вопрос, то пользователям незачем будет переходить по рекламным ссылкам. А именно на рекламу в 2021 году пришлось примерно 80% выручки компании.

Тем не менее Google намерена представить более 20 продуктов и продемонстрировать версию своей поисковой системы с функциями чат-бота уже в 2023 году, узнала The New York Times. Впрочем, корпорация не очень горит желанием внедрять технологию в поисковик, отмечают в издании. Когда Alphabet (материнская компания Google) 2 февраля представит отчет о результатах за 2022 год, инвесторы ждут, что она же ответит на "угрозу" ChatGPT.

У Google, кстати, есть свой чат-бот LaMDA. Летом 2022 года инженер компании даже заявил, что тот обладает сознанием. В результате компания провела проверку его выводов и отметила, что они неверны: "свидетельства того, что LaMDA обладает сознанием, отсутствуют. При этом есть множество свидетельств обратного", говорилось в заявлении официального представителя Google Брайана Гэбриела. Впоследствии инженер был уволен. Сейчас LaMDA доступен в тестовом режиме ограниченному кругу лиц.

Что дальше
"Представьте мир, где автономное оружие бродит по улицам, решения о вашей жизни принимаются искусственным интеллектом, который только закрепляет социальные предубеждения и стереотипы, а хакеры используют ИИ для проведения разрушительных кибератак. Это мрачное будущее кажется научной фантастикой, но на самом деле без надлежащих правил разработки и внедрения ИИ может стать реальностью. Стремительный прогресс в области технологий искусственного интеллекта ясно дал понять, что сейчас самое время действовать, чтобы обеспечить его безопасное, этичное и полезное использование для общества. Невыполнение этого требования может привести к будущему, в котором риски ИИ намного перевешивают его преимущества".

Этот вступительный абзац к статье конгрессмена Теда Лье о том, почему требуется регулировать искусственный интеллект, сгенерировал сам ChatGPT. Чтобы "не допустить" описанное им будущее, американский политик предлагает создать специальное агентство по регулированию ИИ. По его словам, подобные ведомства быстрее обычного законодательного процесса реагируют на повседневные изменения и в них работают авторитетные эксперты, которые сравнительно быстро могут исправить собственную ошибку. С другой стороны, чтобы создать такое агентство, потребуется много усилий.

Также Тед Лье отмечает, что, вероятно, контролировать нужно не все примеры использования ИИ поголовно. Например, алгоритмы в "умном" тостере можно и не регулировать, а вот беспилотный автомобиль — точно нужно.

Если спросить у самого ChatGPT о его перспективах, то он ответит, что считает себя "ценным инструментом" для образования и исследований, а потенциальные области его применения — создание контента и техническая поддержка пользователей. С этим соглашаются и отраслевые эксперты.

При этом модель признает собственное несовершенство: у нее нет доступа к информации в интернете в режиме реального времени, а значит, она не может проверить достоверность того, что генерирует, она не может генерировать полностью оригинальные идеи и может выдавать ошибочную и неактуальную информацию.



Оставить комментарий

Ваше имя::


Комментарий::




Ничего не найдено