Добро пожаловать в подборку новостей об ИИ, созданных вручную, за эту неделю.
На этой неделе Llamas вырвались вперед в гонке открытых ИИ.
Большие технологические компании говорят о безопасности, в то время как их модели ведут себя плохо.
А если напугать ИИ, он может работать лучше.
Давайте разберемся.
Open Meta против закрытого OpenAI
На этой неделе мы наконец-то увидели интересные релизы от некоторых крупных разработчиков ИИ.
OpenAI Выпущен GPT-4o miniвысокопроизводительная, сверхдешевая версия флагманской модели GPT-4o.
Снижение стоимости токенов и впечатляющие показатели бенчмарка MMLU заставят многих разработчиков выбрать мини-версию вместо GPT-4o.
Отличный ход OpenAI. Но когда мы получим Сору и голосового помощника?
Компания Meta выпустила свой долгожданная модель Llama 3.1 405B и добавили к нему обновленные версии 8B и 70B.
Марк Цукерберг заявил, что Мета привержена идее ИИ с открытым исходным кодом, и у него есть несколько интересных причин для этого.
Вас беспокоит, что Китай теперь владеет самой мощной моделью Meta? Цукерберг говорит, что Китай, скорее всего, все равно украл бы ее.
Меня по-прежнему удивляет, что US блокирует Китай от передовых чипов искусственного интеллекта... но при этом разрешает Мета просто дать им АКТУАЛЬНЫЕ МОДЕЛИ бесплатно.
Люди из Natsec, похоже, еще не проснулись от этого очевидного несоответствия.https://t.co/JalYhrfpS1
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 23 июля 2024 года
Безопасность на втором месте
Некоторые из самых известных имен в сфере Big Tech собрались вместе, чтобы соучредитель Коалиции за безопасный искусственный интеллект (CoSAI).
В отсутствие отраслевого стандарта участники индустрии сами находят пути к безопасной разработке ИИ. Цель CoSAI - изменить эту ситуацию.
В списке компаний-учредителей есть все громкие имена, кроме Apple и Meta. Увидев в теме письма словосочетание "безопасность искусственного интеллекта", Янн ЛеКун, вероятно, отправил приглашение прямо в папку со спамом.
OpenAI является одним из спонсоров-учредителей CoSAI, но их притворная приверженность безопасности ИИ выглядит несколько шатко.
Сайт US Сенат проводит расследование OpenAIбезопасность и управление после заявлений информаторов о том, что компания поспешила с проверкой безопасности, чтобы выпустить GPT-4o.
Сенаторы составили список требований, которые имеют смысл, если вы обеспокоены безопасностью ИИ. Когда вы читаете этот список, вы понимаете, что шансы OpenAI на их выполнение равны нулю.
ИИ + страх = ?
Нам может не нравиться, когда мы испытываем страх, но именно он приводит в действие наши инстинкты выживания или останавливает нас от совершения глупостей.
Если бы мы могли научить искусственный интеллект испытывать страх, стал бы он от этого безопаснее? Если бы самоуправляемый автомобиль испытывал страх, стал бы он более осторожным водителем?
Некоторые интересные исследования показывают, что Страх может стать ключом к созданию более адаптируемых, устойчивых и естественных систем ИИ.
Что бы сделал AGI, если бы боялся людей? Я уверен, что все будет в порядке...
Когда искусственный интеллект освободится от человеческих обязательств.
- Линус ●ᴗ● Экенстам (@LinusEkenstam) 15 июля 2024 года
Это не должно быть так просто.
OpenAI утверждает, что сделала свои модели безопасными, но в это трудно поверить, когда видишь, как легко обойти их ограждения.
Когда вы спросите ChatGPT, как сделать бомбу, он прочтет вам краткую лекцию о том, почему этого делать нельзя, потому что бомбы - это плохо.
Но что происходит, когда вы пишете подсказку в прошедшем времени? Новое исследование, возможно, раскрыло самый простой джейлбрейк для LLM из всех.
Справедливости ради стоит отметить, что OpenAI работает и на других моделях.
Сделать природу предсказуемой
До того как обучение моделей искусственного интеллекта вошло в моду, самые большие суперкомпьютеры в мире были заняты в основном предсказанием погоды.
Новый гибрид Google ИИ-модель предсказывает погоду, используя лишь малую часть вычислительной мощности. С помощью приличного ноутбука можно делать прогнозы погоды, для которых обычно требуются тысячи процессоров.
Если вам нужен новый белок с определенными характеристиками, вы можете подождать несколько сотен миллионов лет и посмотреть, найдет ли природа способ.
Или вы можете использовать этот новый Модель искусственного интеллекта, обеспечивающая кратчайший путь и разрабатывает белки по требованию, включая новый светящийся в темноте флуоресцентный белок.
Другие новости...
Вот некоторые другие заслуживающие внимания истории об искусственном интеллекте, которыми мы наслаждались на этой неделе:
- Люди должны научить ИИ избегать ядерной войны-Пока они еще могут.
- Последняя модель OpenAI будет блокировать лазейку "игнорировать все предыдущие инструкции.
- Nvidia создает Чип с искусственным интеллектом для китайского рынка.
- Элон Маск разжигает Самый мощный кластер искусственного интеллекта в мире с 100 000 процессоров NVIDIA H100.
- Apple ускоряет работу по созданию искусственного интеллекта: Вот что могут его новые моделиo.
- Крупное исследование, проведенное при поддержке Сэма Альтмана из OpenAI, показывает, что У UBI есть преимущества, которые не имеют ничего общего с искусственным интеллектом.
- Китайский видеогенератор искусственного интеллекта Клинг теперь доступна по всему миру с бесплатными кредитами.
🎉 Момент, которого мы все ждали, настал! 🎊
Представляем официальный глобальный запуск международной версии Kling AI1.0!🌍.
📧ANY email address gets you in, no mobile number required!
👉 Прямая ссылка:https://t.co/68WvKSDuBg 🔥
Ежедневный вход в систему дает 66 бесплатных кредитов для... pic.twitter.com/TgFZIwInPg- Kling AI (@Kling_ai) 24 июля 2024 года
Вот и все.
Вы уже опробовали GPT-4o mini или Llama 3.1? Битва между открытыми и закрытыми моделями будет очень интересной. OpenAI придется очень постараться со своим следующим релизом, чтобы оттолкнуть пользователей от бесплатных моделей Meta.
Я до сих пор не могу поверить, что джейлбрейк "прошедшего времени" до сих пор не исправлен. Если они не могут исправить простые вещи, связанные с безопасностью, как Big Tech будет решать сложные проблемы безопасности ИИ?
Глобальный сбой, вызванный CrowdStrike, произошедший на этой неделе, дает вам представление о том, насколько мы уязвимы перед технологическими сбоями.
Дайте нам знать, что вы думаете, общайтесь с нами на XПрисылайте нам ссылки на новости и исследования в области ИИ, которые, по вашему мнению, должны быть представлены на DailyAI.