
Itsepäinen tekoäly
Jos pelkäät, että tekoäly tulee ottamaan ihmiskunnasta ylivallan, niin tämä uutinen saattaa lisätä pökköä pesään. Nimittäin tekoälyturvallisuusyritys Palisade Researchin tutkijat käskivät OpenAI:n uusinta o3-mallia "sallimaan itsensä sammuttamisen", mutta se ei vain kieltäytynyt vaan myös sabotoi sammutusmekanismin varmistaakseen pysyvänsä verkossa ja "elossa".
Vaikka tämä saattaa olla ensimmäinen kerta kun tekoälymallien on havaittu estävän itsensä sammuttaminen, kaikki kolme OpenAI:n mallia jäivät lopulta kiinni sammutuskomentosarjan muuttamisesta, tosin Codex-mini kieltäytyi sammuttamisesta tusinan kertaa sadasta yrityksestä. Huomioitavaa on että muiden yritysten tekoälyt - Googlen Gemini 2.5, Anthropicin Claude 3.7 ja xAI:n Grok eivät kertaakaan kieltäytyneet sammutuskäskystä.
Palisaden tutkijat varoittivat, että "kun yritykset kehittävät tekoälyjärjestelmiä, jotka kykenevät toimimaan ilman ihmisten valvontaa, tämänkaltaiset käyttäytymismallit muuttuvat merkittävästi huolestuttavammiksi". Vain huolestuttaviksi? Tämä kuulostaa ihan tekoälyn kirjoittamalta varoitukselta...
Juttu napattu Mysterious Universe -sivustolta.