🚨 Stanford analysoi juuri kuuden suurimman tekoälyyrityksen tietosuojakäytännöt Amerikassa. Amazon. Ihmismäinen. Google. Meta. Microsoft. OpenAI. Kaikki kuusi käyttävät keskustelujasi kouluttaakseen mallejaan. Oletuksena. Ilman merkityksellistä kysymistä. Tässä on, mitä lehti itse asiassa löytyi. Stanford HAI:n tutkijat tutkivat 28 tietosuojaasiakirjaa näiltä kuudesta yritykseltä, eivät pelkästään päätietosuojakäytäntöä, vaan kaikkia linkitettyjä alakäytäntöjä, usein kysyttyjä kysymyksiä ja ohjeita, jotka ovat saatavilla chat-käyttöliittymistä. He arvioivat kaikki tapaukset Kalifornian kuluttajansuojalain (Consumer Privacy Act) perusteella, joka on Yhdysvaltojen kattavin tietosuojalaki. Tulokset ovat pahempia kuin luulet. Jokainen yritys kerää chat-tietosi ja syöttää sen mallikoulutukseen oletuksena. Jotkut säilyttävät keskustelusi loputtomiin. Vanhenemista ei ole. Ei automaattista poistoa. Datasi vain makaa siellä ikuisesti, syöttäen tulevia malliversioita. Jotkut näistä yrityksistä antavat ihmistyöntekijöiden lukea keskustelutranskriptiosi osana koulutusprosessia. Ei anonymisoituja yhteenvetoja. Varsinaiset keskustelusi. Mutta tässä vaiheessa se muuttuu aidosti vaaralliseksi. Googlen, Metan, Microsoftin ja Amazonin kaltaisten yritysten kohdalla, jotka pyörittävät myös hakukoneita, sosiaalisen median alustoja, verkkokauppasivustoja ja pilvipalveluita, tekoälykeskustelut eivät pysy chatbotin sisällä. Ne yhdistetään kaikkeen muuhun, mitä nuo yritykset jo tietävät sinusta. Hakuhistoriasi. Ostotietosi. Sosiaalisen median toimintasi. Lataamasi tiedostot. Tutkijat kuvaavat realistisen tilanteen, joka saa sinut pysähtymään: Kysyt tekoälychatbotilta sydänystävällisiä illallisreseptejä. Malli arvioi, että sinulla saattaa olla sydän- ja verisuonisairaus. Tämä luokittelu kulkee yrityksen laajemman ekosysteemin läpi. Alat nähdä lääkkeiden mainoksia. Tiedot päätyvät vakuutustietokantoihin. Vaikutukset kasaantuvat ajan myötä. Jaoit illalliskysymyksen. Järjestelmä rakensi terveysprofiilin. ...