DAI#49 - Открытые ламы, страх перед ИИ и слишком простой джейлбрейк

26 июля 2024 года

Добро пожаловать в подборку новостей об ИИ, созданных вручную, за эту неделю.

На этой неделе Llamas вырвались вперед в гонке открытых ИИ.

Большие технологические компании говорят о безопасности, в то время как их модели ведут себя плохо.

А если напугать ИИ, он может работать лучше.

Давайте разберемся.

Open Meta против закрытого OpenAI

На этой неделе мы наконец-то увидели интересные релизы от некоторых крупных разработчиков ИИ.

OpenAI Выпущен GPT-4o miniвысокопроизводительная, сверхдешевая версия флагманской модели GPT-4o.

Снижение стоимости токенов и впечатляющие показатели бенчмарка MMLU заставят многих разработчиков выбрать мини-версию вместо GPT-4o.

Отличный ход OpenAI. Но когда мы получим Сору и голосового помощника?

Компания Meta выпустила свой долгожданная модель Llama 3.1 405B и добавили к нему обновленные версии 8B и 70B.

Марк Цукерберг заявил, что Мета привержена идее ИИ с открытым исходным кодом, и у него есть несколько интересных причин для этого.

Вас беспокоит, что Китай теперь владеет самой мощной моделью Meta? Цукерберг говорит, что Китай, скорее всего, все равно украл бы ее.

Безопасность на втором месте

Некоторые из самых известных имен в сфере Big Tech собрались вместе, чтобы соучредитель Коалиции за безопасный искусственный интеллект (CoSAI).

В отсутствие отраслевого стандарта участники индустрии сами находят пути к безопасной разработке ИИ. Цель CoSAI - изменить эту ситуацию.

В списке компаний-учредителей есть все громкие имена, кроме Apple и Meta. Увидев в теме письма словосочетание "безопасность искусственного интеллекта", Янн ЛеКун, вероятно, отправил приглашение прямо в папку со спамом.

OpenAI является одним из спонсоров-учредителей CoSAI, но их притворная приверженность безопасности ИИ выглядит несколько шатко.

Сайт US Сенат проводит расследование OpenAIбезопасность и управление после заявлений информаторов о том, что компания поспешила с проверкой безопасности, чтобы выпустить GPT-4o.

Сенаторы составили список требований, которые имеют смысл, если вы обеспокоены безопасностью ИИ. Когда вы читаете этот список, вы понимаете, что шансы OpenAI на их выполнение равны нулю.

ИИ + страх = ?

Нам может не нравиться, когда мы испытываем страх, но именно он приводит в действие наши инстинкты выживания или останавливает нас от совершения глупостей.

Если бы мы могли научить искусственный интеллект испытывать страх, стал бы он от этого безопаснее? Если бы самоуправляемый автомобиль испытывал страх, стал бы он более осторожным водителем?

Некоторые интересные исследования показывают, что Страх может стать ключом к созданию более адаптируемых, устойчивых и естественных систем ИИ.

Что бы сделал AGI, если бы боялся людей? Я уверен, что все будет в порядке...

Это не должно быть так просто.

OpenAI утверждает, что сделала свои модели безопасными, но в это трудно поверить, когда видишь, как легко обойти их ограждения.

Когда вы спросите ChatGPT, как сделать бомбу, он прочтет вам краткую лекцию о том, почему этого делать нельзя, потому что бомбы - это плохо.

Но что происходит, когда вы пишете подсказку в прошедшем времени? Новое исследование, возможно, раскрыло самый простой джейлбрейк для LLM из всех.

Справедливости ради стоит отметить, что OpenAI работает и на других моделях.

Сделать природу предсказуемой

До того как обучение моделей искусственного интеллекта вошло в моду, самые большие суперкомпьютеры в мире были заняты в основном предсказанием погоды.

Новый гибрид Google ИИ-модель предсказывает погоду, используя лишь малую часть вычислительной мощности. С помощью приличного ноутбука можно делать прогнозы погоды, для которых обычно требуются тысячи процессоров.

Если вам нужен новый белок с определенными характеристиками, вы можете подождать несколько сотен миллионов лет и посмотреть, найдет ли природа способ.

Или вы можете использовать этот новый Модель искусственного интеллекта, обеспечивающая кратчайший путь и разрабатывает белки по требованию, включая новый светящийся в темноте флуоресцентный белок.

Другие новости...

Вот некоторые другие заслуживающие внимания истории об искусственном интеллекте, которыми мы наслаждались на этой неделе:

Вот и все.

Вы уже опробовали GPT-4o mini или Llama 3.1? Битва между открытыми и закрытыми моделями будет очень интересной. OpenAI придется очень постараться со своим следующим релизом, чтобы оттолкнуть пользователей от бесплатных моделей Meta.

Я до сих пор не могу поверить, что джейлбрейк "прошедшего времени" до сих пор не исправлен. Если они не могут исправить простые вещи, связанные с безопасностью, как Big Tech будет решать сложные проблемы безопасности ИИ?

Глобальный сбой, вызванный CrowdStrike, произошедший на этой неделе, дает вам представление о том, насколько мы уязвимы перед технологическими сбоями.

Дайте нам знать, что вы думаете, общайтесь с нами на XПрисылайте нам ссылки на новости и исследования в области ИИ, которые, по вашему мнению, должны быть представлены на DailyAI.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения