Что произошло на этой неделе в AI by Louie

На этой неделе мы были рады, наконец, протестировать интерпретатор кода Open AI, новую возможность GPT-4 в ChatGPT. OpenAI также был активен с другими объявлениями, включая раскрытие своих планов по созданию команды, занимающейся достижением суперсогласования в течение следующих четырех лет.

После первоначальной альфа-версии функция интерпретатора кода, которая включает в себя возможности кодирования и визуализации данных, теперь доступна в бета-режиме для всех пользователей ChatGPT Plus. Интерпретатор кода предоставляет ChatGPT ряд функций, включая анализ данных, создание диаграмм, загрузку и редактирование файлов, математические операции и выполнение кода.

Использование интерпретатора кода относительно просто для большинства случаев использования, особенно если к нему подходят как к аналитику. Данные, включая сжатые файлы, такие как ZIP-архивы, можно легко загрузить, нажав кнопку плюс. Первоначальная подсказка может быть минимальной, поскольку ИИ превосходно понимает значение и структуру данных только из контекста. После загрузки ИИ автоматически выполняет такие задачи, как объединение данных и сложная очистка данных. Итан Моллик задокументировал много интересных случаев использования Code Interpreter в своем Твиттере и в этом блоге. Особенно мощной является способность распознавать ошибки (из-за неудачного выполнения кода) и выполнять итерацию модели для их исправления.

Эта функция может использоваться для многих уникальных приложений, и люди задокументировали использование, включая анализ и визуализацию данных, выявление тенденций, анализ тем, изучение моделей взаимодействия, SEO-оптимизацию, анализ KPI, создание видео и даже создание наборов данных и моделей машинного обучения. Возможности обширны и расширяются по мере расширения доступа к Интерпретатору кода. В последнее время появились некоторые признаки угасания интереса к ChatGPT (отчеты о посетителях веб-сайтов снижаются, хотя GPT-Turbo и GPT-4 более широко внедряются в других местах через API), поэтому эта новая функция появилась как раз вовремя для OpenAI.

Мы считаем, что Code Interpreter открывает гораздо больше возможностей от LLM и может быть невероятно полезным, значительно снижая затраты и барьеры для доступа к базовому анализу данных. Однако для того, чтобы задавать правильные вопросы и получать максимальную информацию, по-прежнему требуется человеческий надзор и человеческое воображение. Мы ожидаем гораздо большего прогресса в этом направлении в ближайшие месяцы и годы, поскольку LLM получат более мощные инструменты для работы.

Что касается других новостей об искусственном интеллекте, Kinnu, образовательный стартап на основе генеративного искусственного интеллекта, который мы представили еще в октябре, успешно собрал раунд финансирования в размере 6,5 миллионов долларов. Kinnu в первую очередь предназначен для взрослых энтузиастов и использует искусственный интеллект для оптимизации контента для каждого отдельного учащегося. Нам всегда казалось странным, что большинство предложений онлайн-образования просто расширяют худшие аспекты традиционного обучения, — говорит Кристофер Калер, соучредитель и генеральный директор Kinnu. Мы считаем, что есть значительные возможности для обучения с помощью ИИ, которое направлено на ускорение темпов самого человеческого обучения. Мы в восторге от прогресса, достигнутого Kinnu, и согласны с тем, что ИИ может внести свой вклад в повышение качества образования.

– Луи Питерс, соучредитель и генеральный директор компании Towards AI

Горячие новости

  1. Введение в супервыравнивание

OpenAI представила концепцию Superalignment, подчеркнув необходимость научных и технических прорывов, чтобы обеспечить соответствие высокоинтеллектуальных систем ИИ человеческим намерениям. Организация подчеркивает важность создания инновационных институтов управления и изучения новых подходов для достижения этой согласованности.

2. Майнер переводит 38 000 графических процессоров с криптографии на искусственный интеллект

Криптомайнинговая компания Hive Blockchain переключает свое внимание с майнинга Ethereum на рабочие нагрузки ИИ. Имея в своем распоряжении 38 000 графических процессоров, они намерены получать доход, при этом используя некоторую мощность графических процессоров для майнинга криптовалюты. Однако переход на вычисления ИИ сопряжен с трудностями, поскольку более старые графические процессоры для майнинга ETH имеют ограниченную ценность на этом рынке.

3. AWS запускает инновационный центр генеративного ИИ стоимостью 100 млн долларов

AWS объявила о значительных инвестициях в развитие генеративного ИИ. С обязательством в размере 100 миллионов долларов США недавно созданный Центр инноваций генеративного ИИ AWS призван помочь клиентам и партнерам во всем мире раскрыть потенциал генеративного ИИ. Инновационный центр уже сотрудничает с такими компаниями, как Highspot, Lonely Planet, Ryanair и Twilio, над генеративными ИИ-решениями.

4. Медицинский чат-бот Google с искусственным интеллектом уже тестируется в больницах

Med-PaLM 2 от Google, инструмент искусственного интеллекта, разработанный для предоставления ответов на медицинскую информацию, прошел тестирование в исследовательской больнице Mayo Clinic. Как вариант языковой модели PaLM 2, Med-PaLM 2 продемонстрировал многообещающие результаты с точки зрения рассуждений, предоставления ответов на основе консенсуса и понимания, хотя некоторые проблемы с точностью сохраняются.

5. Alibaba запускает искусственный интеллект инструмент для создания изображений из текста

Китайский технологический гигант Alibaba запустил Tongyi Wanxiang, инструмент искусственного интеллекта, способный генерировать изображения из подсказок. Инструмент позволяет пользователям вводить подсказки как на мандаринском, так и на английском языках, а также генерирует изображения в различных стилях, включая 2D-иллюстрации, эскизы и 3D-мультфильмы.

Пять 5-минутных чтений/видео, чтобы вы продолжали учиться

  1. Интригующие свойства квантования в масштабе

Недавние исследования показывают, что на качество постобучающего квантования моделей больших языков (PTQ) сильно влияют гиперпараметры до обучения. Исследование показывает, что варианты оптимизации, включая снижение веса, отсечение градиента и выбор типа данных, оказывают значительное влияние на производительность PTQ, при этом заметное влияние оказывают значения float16 и bfloat16. В исследовании подчеркивается важность вариантов оптимизации при разработке надежных языковых моделей.

2. Лучшие графические процессоры для машинного обучения для вашего следующего проекта

В этой статье рассказывается о растущем использовании графических процессоров в машинном обучении и предоставляется руководство по выбору лучших графических процессоров для приложений ИИ. В нем упоминаются ключевые факторы, которые следует учитывать, такие как совместимость и объем памяти, а также определяются лучшие варианты графических процессоров от NVIDIA, включая Titan RTX и Tesla V100. Он также предлагает экономичные альтернативы, такие как EVGA GeForce GTX 1080 и графические процессоры AMD Radeon.

3. Веса ИИ не открыты «Источник»

В статье рассматривается вопрос весов моделей ИИ и их доступности в открытом доступе. В нем утверждается, что, хотя исходный код моделей ИИ может быть открытым, весовые коэффициенты, которые охватывают фактически полученные знания, обычно не разглашаются открыто по разным причинам, таким как опасения в отношении интеллектуальной собственности, конфиденциальности и коммерческих интересов.

4. Глоссарий искусственного интеллекта: более 60 терминов, которые нужно знать

ИИ растет экспоненциально, и вокруг него существуют разные уровни осведомленности. Этот глоссарий призван служить ресурсом для тех, кто только знакомится с ИИ, и для тех, кто ищет справку или обновление словарного запаса.

5. Начало работы с интерпретатором кода в ChatGPT

В этой статье Итан Моллик задокументировал множество интересных случаев использования Code Interpreter в своем Twitter. Он также выделил его особенности, процесс его использования и многое другое.

Бумаги и репозитории

  1. Опрос по оценке больших языковых моделей

В этой статье представлен всесторонний обзор методов оценки языковых моделей. Основное внимание уделяется тому, что оценивать (включая различные аспекты, такие как рассуждения, этика и приложения), где оценивать (как общие, так и конкретные контрольные показатели) и как оценивать (включая человеческие оценки по сравнению с автоматическими оценками).

2. DreamDiffusion: создание высококачественных изображений из сигналов ЭЭГ мозга

В этой статье представлен DreamDiffusion, новый метод создания высококачественных изображений непосредственно из сигналов электроэнцефалограммы (ЭЭГ) мозга без необходимости переводить мысли в текст. Используя предварительно обученные модели и передовые методы моделирования сигналов, он преодолевает такие проблемы, как ограниченность информации и шум.

3. LongNet: масштабирование трансформаторов до 1 000 000 000 токенов

Эта работа представляет LongNet, вариант Transformer, который может масштабировать длину последовательности до более чем 1 миллиарда токенов без ущерба для производительности более коротких последовательностей. Он использует расширенное внимание для эффективной обработки более длинных последовательностей, сохраняя при этом производительность на более коротких. Одним из ключевых преимуществ использования этого метода является его совместимость с существующими подходами к оптимизации. Он легко интегрируется с любыми другими уже используемыми методами, расширяя набор опций, доступных для оптимизации.

4. Проклятие рекурсии: обучение на сгенерированных данных заставляет забыть о моделях

Исследователи исследуют «крах модели», исчезновение исходного распределения контента, когда модели обучаются с использованием контента из других моделей. Это явление влияет на LLM, вариационные автоэнкодеры и гауссовские смешанные модели, подчеркивая необходимость понимания и сохранения данных, полученных в результате реальных человеческих взаимодействий, для сохранения преимуществ данных, собранных в Интернете.

5. ChatLaw: юридическая модель большого языка с открытым исходным кодом и интегрированными внешними базами знаний

ChatLaw — это модель юридического языка с открытым исходным кодом, специально разработанная для китайской правовой сферы. Он использует комбинацию методов поиска векторов и ключевых слов для устранения модельных галлюцинаций во время поиска данных, что приводит к более точным ответам. Самостоятельное внимание используется для повышения точности и надежности справочных данных.

Понравились эти статьи и сводки новостей? Получайте ежедневный обзор на почту!

Раздел сообщества Learn AI Together!

Еженедельный подкаст об искусственном интеллекте

В выпуске подкаста Что такое ИИ на этой неделе Луи Бушар берет интервью у Петара Величковича, научного сотрудника DeepMind и доцента в Кембридже. Петар делится своим мнением о ценности докторской степени, подчеркивая ее роль в качестве шлюза для исследований и возможности, которые она предоставляет для установления связей и адаптации. Он также освещает развивающийся ландшафт исследований ИИ, подчеркивая важность разнообразного опыта и вклада. Интервью дает ценные взгляды на академические круги и промышленность, роль ученого-исследователя, работу в DeepMind, преподавание и значение любопытства в проведении эффективных исследований. Настройтесь на YouTube, Spotify или Apple Podcasts, если вас интересуют исследования ИИ!

Мем недели!

Мем поделился пользователем mrobino

Избранный пост сообщества из Discord

weaver159#1651 недавно представила новый проект под названием MetisFL, который представляет собой интегрированную среду обучения, позволяющую разработчикам легко объединять свои рабочие процессы машинного обучения и обучать модели в распределенных хранилищах данных без необходимости централизации данных. Ядро фреймворка написано на C++ и уделяет первостепенное внимание масштабируемости, скорости и отказоустойчивости. В настоящее время проект переходит от частной экспериментальной версии к общедоступной бета-фазе. Проверьте это на GitHub и поддержите другого члена сообщества. Поделитесь своим мнением об этом проекте в теме здесь.

AI-опрос недели!

Присоединяйтесь к обсуждению в Discord.

TAI Кураторский раздел

Статья недели

Лучше, чем GPT-4 для запросов SQL: NSQL (Fully OpenSource) от «Dr. Мандар Кархейд, доктор медицины. Кандидат наук."

SQL по-прежнему остается наиболее часто используемым языком. Разве не было бы здорово, если бы мы могли писать SQL-запросы, запрашивая большую языковую модель? Это компенсирует большую часть работы и, вероятно, демократизирует доступ к информации почти для всех в компании, кто в ней нуждается. В этой статье автор рассказывает о NSQL, новом семействе больших базовых моделей (FM) с открытым исходным кодом, разработанных специально для задач генерации SQL.

Наши обязательные к прочтению статьи

Четкое объяснение метрик классификации! автор Хосе Д. Эрнандес-Бетанкур

Раскройте понимание данных: овладение искусственным интеллектом для мощного анализа от Амит Кумар

Познакомьтесь с моделью полностью OpenSource Foundation от Salesforce XGen-7B от «Dr. Мандар Кархейд, доктор медицины. Кандидат наук."

Если вы хотите публиковаться с помощью Towards AI, ознакомьтесь с нашими рекомендациями и зарегистрируйтесь. Мы опубликуем вашу работу в нашей сети, если она соответствует нашим редакционным политикам и стандартам.

Предложения о работе

Архитектор данных @ShyftLabs (Торонто, Канада)

Специалист по машинному обучению — Legal Systems @Uni Systems (Брюссель, Бельгия)

Разработчик-исследователь графического ИИ @Plain Concepts (удаленно)

Инженер данных @Tomorrow (фриланс/Румыния)

Менеджер по развитию, данные и аналитика @WillowTree (удаленно)

Инженер клиентской платформы @Chainalysis (удаленно)

Стажер — Стажеры по разработке программного обеспечения — ACST @Activate Interactive Pte Ltd (Сингапур)

Хотите поделиться здесь вакансией? Обращайтесь по адресу [email protected].

Если вы готовитесь к следующему собеседованию по машинному обучению, обязательно посетите наш ведущий веб-сайт для подготовки к собеседованию, confetti!