Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Розробка ШІ вже ніколи не буде такою, як раніше. Побудований @ovrclk_ @akashnet.
OpenAI розгортається всередині засекречених урядових мереж. Коли ви будуєте на закритих, централізованих AI-платформах, ви довіряєте їхнім умовам користування, і ці умови можуть змінюватися в будь-який момент без вашої участі.
Відкритий шлях виглядає зовсім інакше:
→ Ви можете точно перевірити, що роблять ваші моделі за допомогою ваших даних
→ Ви не залежите від політик чи рішень одного провайдера
→ Ваша інфраструктура працює там, де ви обираєте, а не там, де вам кажуть
AkashML забезпечує високопродуктивний висновок у 80+ глобальних дата-центрах.
Повністю відкритий, повністю портативний і створений для всіх.
Спробуйте AkashML:

Crypto Miners1 бер., 20:57
OpenAI досягла угоди з Департаментом війни
@OpenAI планує розгорнути свої моделі всередині секретної мережі DoW за суворих умов. Сем Олтман каже, що департамент проявив велику повагу до безпеки і що ці умови відповідають чинному законодавству та політиці.
Угода містить гарантії, пов'язані з основними принципами OpenAI, зокрема заборону масового внутрішнього спостереження та притягнення людей до відповідальності за застосування сили. Він також вимагає технічного контролю, запитаного DoW, розгортання лише в хмарі та спеціалізованих команд нагляду, щоб забезпечити роботу моделей належним чином.
Альтман додав, що OpenAI хоче, щоб подібні стандарти застосовувалися до всіх компаній ШІ, і наголосив на прагненні співпраці над юридичним конфліктом, зазначивши, що мета залишається служити людству у складному і часом небезпечному світі.

323
Централізовані AI-платформи тренуються на ваших власних даних і передають їх конкурентам.
Вирішення просте:
→ Запускайте відкриті моделі на власному приватному розгортанні
→ Ваші дані ніколи не залишають інфраструктуру
→ Ваші дані навчають ваші моделі, а не їхні
AkashML — це платформа для висновку, а не операція з даними.
Ми даємо вам фішки, щоб запускати Llama 3.3 70B за $0.13 за 1M токенів.
Сумісність з API, що можна мігрувати з будь-якого великого провайдера за лічені хвилини.
Ви — не продукт. Ти — власник.
Переконайтеся самі ↓

Guri Singh28 лют. 2026 р.
🚨 Стенфорд щойно проаналізував політики конфіденційності шести найбільших компаній ШІ в Америці.
Amazon. Антропічний. Google. Мета. Microsoft. OpenAI.
Усі шестеро використовують ваші розмови для навчання своїх моделей. За замовчуванням. Без суттєвих запитань.
Ось що насправді знайшла стаття.
Дослідники зі Стенфордського університету HAI проаналізували 28 документів щодо конфіденційності в цих шести компаніях не лише основну політику конфіденційності, а й усі пов'язані підполітики, FAQ та сторінку з інструкціями, доступні через чат-інтерфейси.
Вони оцінили всі ці закони відповідно до Каліфорнійського закону про конфіденційність споживачів — найповнішого закону про конфіденційність у США.
Результати гірші, ніж ви думаєте.
Кожна компанія за замовчуванням збирає ваші дані чату і повертає їх назад у навчання моделей. Деякі зберігають ваші розмови назавжди. Терміну дії немає. Автоматичного видалення немає. Ваші дані просто лежать там, назавжди, живлячи майбутні версії моделі.
Деякі з цих компаній дозволяють людям читати ваші стенограми чату в рамках навчального процесу. Не анонімізовані резюме. Твої справжні розмови.
Але ось тут починається справді небезпечно.
Для компаній, таких як Google, Meta, Microsoft та Amazon, які також використовують пошукові системи, соціальні мережі, сайти електронної комерції та хмарні сервіси, ваші AI-розмови не залишаються в чат-боті.
Вони об'єднуються з усім, що ці компанії вже знають про вас.
Ваша історія пошуку. Ваші дані про покупку. Ваша активність у соцмережах. Ваші завантажені файли.
Дослідники описують реалістичний сценарій, який має змусити вас зупинитися: ви просите у AI-чатбота рецепти для здорових серця вечері. Модель припускає, що у вас може бути серцево-судинне захворювання. Ця класифікація поширюється в ширшій екосистемі компанії. Ви починаєте бачити рекламу ліків. Інформація потрапляє до страхових баз даних. З часом наслідки накопичуються.
Ти поділився питанням за вечерею. Система створила профіль здоров'я.
Ситуація погіршується, коли дивишся на дані про дітей.
Чотири з шести компаній, здається, включають дані дитячих чатів у своє навчання моделей. Google оголосила, що буде навчатися на даних підлітків за згодою. Anthropic каже, що не збирає дані про дітей, але не перевіряє вік. Microsoft заявляє, що збирає дані від користувачів молодше 18 років, але стверджує, що не використовує їх для навчання.
Діти не можуть юридично давати згоду на це. Більшість батьків не знають, що це відбувається.
Механізми відмови — це справжній лабіринт.
Деякі компанії пропонують відмову. Деякі — ні. Ті, що ховають цю опцію глибоко на сторінках налаштувань, яку більшість користувачів ніколи не знайде. Самі політики конфіденційності написані щільною юридичною мовою, яку дослідники, чиї роботи — читати ці документи, було важко інтерпретувати.
І ось структурна проблема, яку ніхто не вирішує.
У Сполучених Штатах немає комплексного федерального закону про конфіденційність, який регулює, як компанії, що займаються ШІ, обробляють дані чату. Мозаїка законів штатів залишає величезні прогалини. Дослідники спеціально закликають до трьох речей: обов'язкового федерального регулювання, позитивної згоди (не відмови) від навчання моделей та автоматичної фільтрації особистої інформації з чату ще до того, як вони потраплять до навчального конвеєра.
Сьогодні жодного з них не існує.
Неприємна правда така: кожного разу, коли ви вводите щось у ChatGPT, Gemini, Claude, Meta AI, Copilot або Alexa, ви вносите внесок у навчальний набір даних. Ваші медичні питання. Твої проблеми у стосунках. Ваші фінансові дані. Ваші завантажені документи.
Ви не клієнт. Ви — навчальна програма.
І компанії, які це роблять, максимально ускладнили для вас зупинку.

258
Найкращі
Рейтинг
Вибране
