Открытый подход к AI
Meta, ведущая технологическая компания создавшая Facebook (Meta является запрещённой организацией на территории РФ), сделала смелый ход, открыв доступ к своему флагманскому искусственному интеллекту – чат-боту Llama 2. Это первый случай, когда крупная технологическая компания делает свой AI продукт бесплатным и открытым для всех. Об этим гласит сообщение на сайте – каждый может скачать Llama 2:
Влияние на индустрию
- С запуском Llama 2 на условиях открытой коммерческой лицензии, исследователи получают доступ к инструменту большой языковой модели (LLM).
- Компании и стартапы могут интегрировать его в свои продукты.
Цитата Марка Цукерберга: “Это приведет к прогрессу во всей отрасли“.
Опасения и риски
Однако, не все разделяют этот оптимизм. Некоторые опасаются, что открытый подход может привести к злоупотреблению технологией. Без защитных мер, которые ограничивают доступ пользователя, если правила нарушены – как это сделано в OpenAI’s ChatGPT и Google’s Bard – открытые модели AI могут потенциально использоваться для генерации неограниченного спама или дезинформации.
Выпустив Llama 2 в открытый доступ, Meta либо игнорировала потенциал для злоупотребления, либо поспорила, что допуск злоупотребления в краткосрочной перспективе способствует безопасности AI в долгосрочной перспективе” – Центр безопасности AI.
Демократизация технологии
Meta утверждает, что их подход поможет демократизировать технологию, которая стоит огромных денег и ресурсов для производства.
Заявление Meta: “Ответственная и открытая инновация дает нам всем участие в процессе разработки AI, принося видимость, критику и доверие к этим технологиям“.
Предупреждение сенаторов США
Сенаторы США Джош Хоули и Ричард Блюменталь в письме г-ну Цукербергу прошлым месяцем написали, что технология компании может привести к увеличению “спама, мошенничества, вредоносных программ, нарушений конфиденциальности и домогательства”, таких как создание “непристойного контента”, связанного с детьми.
Сенаторы США: “Даже за короткое время, пока инструменты генеративного AI были доступны публике, они были опасно злоупотреблены – риск, который еще больше усугубляется с открытыми моделями“.