Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Развитие искусственного интеллекта уже никогда не будет прежним. Построен компанией @ovrclk_ на @akashnet.
OpenAI разворачивается внутри закрытых правительственных сетей. Когда вы строите на закрытых, централизованных платформах ИИ, вы доверяете их условиям обслуживания, и эти условия могут измениться в любое время без вашего участия.
Открытый путь выглядит совершенно иначе:
→ Вы можете точно проверить, что ваши модели делают с вашими данными
→ Вы не зависите от политик или решений единственного поставщика
→ Ваша инфраструктура работает там, где вы выбираете, а не там, где вам говорят
AkashML обеспечивает высокопроизводительный вывод в более чем 80 глобальных дата-центрах.
Полностью открыто, полностью переносимо и создано для всех.
Попробуйте AkashML:

Crypto Miners1 мар., 20:57
OpenAI достигла соглашения с Министерством обороны
@OpenAI планирует развернуть свои модели внутри классифицированной сети Министерства обороны при строгих условиях. Сэм Альтман говорит, что министерство проявило сильное уважение к безопасности и что условия соответствуют существующему законодательству и политике.
Соглашение включает в себя меры предосторожности, связанные с основными принципами OpenAI, включая запреты на массовое наблюдение за гражданами и сохранение ответственности людей за применение силы. Оно также требует технических мер контроля, запрашиваемых Министерством обороны, развертывания только в облаке и создания специализированных команд надзора, чтобы гарантировать, что модели ведут себя так, как задумано.
Альтман добавил, что OpenAI хочет, чтобы аналогичные стандарты применялись ко всем компаниям в области ИИ, и подчеркнул предпочтение сотрудничеству, а не юридическим конфликтам, заявив, что цель остается служить человечеству в сложном и иногда опасном мире.

310
Централизованные AI платформы обучаются на ваших собственных данных и передают их вашим конкурентам.
Решение простое:
→ Запускайте модели с открытым исходным кодом на своем собственном частном развертывании
→ Ваши данные никогда не покидают вашу инфраструктуру
→ Ваши данные обучают ваши модели, а не их
AkashML — это платформа для вывода, а не для обработки данных.
Мы предоставляем вам чипы для запуска Llama 3.3 70B по цене $0.13 за 1M токенов.
Совместимость с API означает, что вы можете мигрировать от любого крупного провайдера за считанные минуты.
Вы не продукт. Вы владелец.
Убедитесь сами ↓

Guri Singh28 февр. 2026 г.
🚨 Стэнфорд только что проанализировал политику конфиденциальности шести крупнейших AI-компаний в Америке.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Все шесть используют ваши разговоры для обучения своих моделей. По умолчанию. Без значительного запроса.
Вот что на самом деле обнаружила работа.
Исследователи из Stanford HAI изучили 28 документов о конфиденциальности в этих шести компаниях — не только основную политику конфиденциальности, но и каждую связанную подполитику, FAQ и страницу с рекомендациями, доступные из интерфейсов чата.
Они оценили все эти документы в соответствии с Законом о конфиденциальности потребителей Калифорнии, самым всеобъемлющим законом о конфиденциальности в Соединенных Штатах.
Результаты хуже, чем вы думаете.
Каждая компания собирает ваши данные чата и использует их для обучения моделей по умолчанию. Некоторые хранят ваши разговоры бесконечно. Нет срока действия. Нет автоматического удаления. Ваши данные просто остаются там навсегда, питая будущие версии модели.
Некоторые из этих компаний позволяют сотрудникам читать ваши транскрипты чата в рамках процесса обучения. Не анонимизированные сводки. Ваши реальные разговоры.
Но вот где становится действительно опасно.
Для таких компаний, как Google, Meta, Microsoft и Amazon — компаний, которые также управляют поисковыми системами, платформами социальных медиа, сайтами электронной коммерции и облачными сервисами — ваши AI-разговоры не остаются внутри чат-бота.
Они объединяются с тем, что эти компании уже знают о вас.
Ваша история поиска. Ваши данные о покупках. Ваша активность в социальных сетях. Ваши загруженные файлы.
Исследователи описывают реалистичный сценарий, который должен заставить вас задуматься: вы спрашиваете AI-чат-бота о рецептах ужина, полезных для сердца. Модель делает вывод, что у вас может быть сердечно-сосудистое заболевание. Эта классификация проходит через более широкую экосистему компании. Вы начинаете видеть рекламу медикаментов. Информация попадает в базы данных страховых компаний. Эффекты накапливаются со временем.
Вы задали вопрос о ужине. Система создала профиль здоровья.
Ситуация ухудшается, когда речь идет о данных детей.
Четыре из шести компаний, похоже, включают данные чата детей в обучение своих моделей. Google объявил, что будет обучаться на данных подростков с согласия. Anthropic утверждает, что не собирает данные детей, но не проверяет возраст. Microsoft говорит, что собирает данные от пользователей младше 18 лет, но утверждает, что не использует их для обучения.
Дети не могут юридически дать согласие на это. Большинство родителей не знают, что это происходит.
Механизмы отказа от участия — это лабиринт.
Некоторые компании предлагают возможность отказаться. Некоторые — нет. Те, кто предлагает, прячут эту опцию глубоко в настройках, которые большинство пользователей никогда не найдет. Политики конфиденциальности сами написаны в плотном юридическом языке, который исследователи — люди, чья работа заключается в чтении этих документов — нашли трудными для интерпретации.
И вот структурная проблема, которую никто не решает.
В Соединенных Штатах нет всеобъемлющего федерального закона о конфиденциальности, регулирующего, как AI-компании обрабатывают данные чата. Патчворк государственных законов оставляет огромные пробелы. Исследователи конкретно призывают к трем вещам: обязательному федеральному регулированию, активному согласию (а не отказу) для обучения моделей и автоматической фильтрации личной информации из входных данных чата до того, как они попадут в процесс обучения.
Ничего из этого сегодня не существует.
Неприятная правда заключается в следующем: каждый раз, когда вы что-то вводите в ChatGPT, Gemini, Claude, Meta AI, Copilot или Alexa, вы вносите свой вклад в набор данных для обучения. Ваши медицинские вопросы. Ваши проблемы в отношениях. Ваши финансовые детали. Ваши загруженные документы.
Вы не клиент. Вы — учебный план.
И компании, которые это делают, сделали все возможное, чтобы вам было трудно остановиться.

242
Топ
Рейтинг
Избранное
