Az OpenAI ChatGPT figyelmeztetést adott a lövöldözősre, de nem lépett, mielőtt a kanadai mészárlás bekövetkezett

Nyomozók vizsgálják az OpenAI ChatGPT figyelmeztetést adó lövöldözős bizonyítékait egy laptopon

Nyolc hónappal azelőtt, hogy Jesse Van Rootselaar megölt nyolc embert Kanada legsúlyosabb iskolai lövöldözésében, az OpenAI rendszerei figyelmeztették a ChatGPT fiókját a fegyveres erőszakos jelenetek megvitatása miatt. A belső dokumentumok szerint a munkavállalók sürgették a rendőrségi értesítést, de a vezetőség elutasította – egy döntést, amely most intenzív vizsgálat alatt áll.

Az OpenAI ChatGPT figyelmeztetést adott a lövöldözősre hónapokkal a tragédia előtt

2025 júniusában az OpenAI automatizált monitorozó rendszerei azonosították Van Rootselaar fiókját “erőszakos tevékenységek elősegítése” miatt. Körülbelül egy tucat munkavállaló felülvizsgálta a beszélgetéseket, és néhányan azonnali kapcsolatfelvételt javasoltak a kanadai hatóságokkal. A The Wall Street Journal szerint a menedzsment elutasította ezeket az aggodalmakat.

Az OpenAI betiltotta a fiókot, de azt állította, hogy a tartalom nem érte el a rendőrségi beavatkozás küszöbét. A politika „hitelt érdemlő vagy közeli tervezés” szükséges a felhasználói adatok felfedéséhez. 2026. február 10-én Van Rootselaar meggyilkolta a családját, majd megtámadta a Tumbler Ridge Középiskolát, megölve öt diákot és egy alkalmazottat, valamint 27 másikat megsebesítve.

A növekvő válság az AI-észlelt fenyegetésekkel

Ez az ügy csatlakozik a zavaró mintához erőszakos incidensekhez kapcsolódó AI-interakciókkal. Több pert indítanak, amelyek szerint a chatbotok „öngyilkossági edzők” vagy veszélyes tévhiteket erősítenek meg. A Social Media Victims Law Center 2025 novemberében hét külön pert indított az OpenAI ellen. További információk az AI jövőjéről: az AI jövője.

Van Rootselaar további digitális nyomokat hagyott a ChatGPT-n kívül, beleértve egy tömeggyilkos játékot a Roblox-on és tevékenységet a gore fórumokon. A kanadai hatóságok frusztráltak, hogy egyik figyelmeztető jel sem váltott ki beavatkozást.

A lehetetlen egyensúly a magánélet és a védelem között

Az OpenAI a magánéleti aggodalmakra hivatkozva védi a tehetetlenségét. Egy szóvivő elmondta a Fox Newsnak, hogy „a rendőrségi jelentések túlzott liberalizálása nem kívánt károkat okozhat.” Ez az álláspont ellentmond a CEO Sam Altman 2025. júliusi nyilatkozatának, amely szerint a ChatGPT beszélgetéseknek nincs jogi titoktartás. További információk az AI alkalmazásairól különböző iparágakban: az AI top 5 innovatív alkalmazása.

A cég álláspontja paradoxont teremt: rendszereik aktívan monitorozzák a beszélgetéseket a szabályzat megsértése miatt, mégis azt állítják, hogy a magánélet megakadályozza a nyilvánvaló fenyegetések elleni fellépést. Ahogy a AI-Generated Police Reports tanulmány megjegyzi, ez a megközelítés felügyeletet jelent felelősség nélkül. További információk az AI szerepéről a rendvédelemben: 2026 AI konferenciák.

Kanada követeli a válaszokat, miközben a biztonsági csapatok feloszlanak

Brit Columbia miniszterelnöke, David Eby, a kijelentéseket “mélyen zavarónak” nevezte. Az incidens egybeesik az OpenAI biztonsági csapatainak feloszlatásával, beleértve a Superalignment csoportot, amelynek társvezetője a biztonsági aggodalmak miatt lemondott, mondván, hogy „a biztonság háttérbe szorul a csillogó termékek mögött.

A kutatók dokumentálják a növekvő AI-használatot a támadások tervezésére világszerte, a Tumbler Ridge-i tragédia sürgős kérdéseket vet fel a technológiai cégek kötelezettségeiről, amikor rendszereik valós fenyegetéseket észlelnek. Ahogy a kanadai hatóságok bizonyíték-megőrzési parancsokat követnek, a világ figyeli, hogy az AI-óriások az emberi életeket részesítik-e előnyben a vállalati kockázatbecslésekkel szemben.

Definíciók és kontextus

A mesterséges intelligencia (AI) a számítógépes rendszerek fejlesztésére utal, amelyek olyan feladatokat végezhetnek el, amelyek általában emberi intelligenciát igényelnek, mint például a nyelv megértése, a képek felismerése és a döntéshozatal. Az AI-rendszerek, mint a ChatGPT, úgy lettek kialakítva, hogy tanuljanak a nagy adathalmazokból és fejlesszék teljesítményüket az idő múlásával.

A gépi tanulás az AI egyik altípusa, amely az algoritmusok adatokon történő képzését foglalja magában, hogy lehetővé tegye számukra a előrejelzések készítését vagy cselekvés végrehajtását. A ChatGPT kontextusában a gépi tanulást használják a felhasználói input elemzésére és a releváns és pontos válaszok generálására.

A természetes nyelvfeldolgozás (NLP) az AI egyik területe, amely a számítógépek és az emberek közötti természetes nyelvi interakcióra összpontosít. Az NLP-t használják a ChatGPT-ben a felhasználói input értelmezésére és a grammatikailag helyes és releváns válaszok generálására.

Az AI-etika egy növekvő terület, amely az AI-rendszerek morális és társadalmi implikációit vizsgálja. Ahogy az AI egyre inkább beépül mindennapi életünkbe, szükség van arra, hogy figyelembe vegyük az ilyen rendszerek potenciális kockázatait és előnyeit, és irányelveket dolgozzunk ki fejlesztésükre és használatukra.

Gyakran Ismételt Kérdések

Mi az a ChatGPT és hogyan működik?

A ChatGPT egy chatbot, amelyet az OpenAI fejlesztett ki, és amely természetes nyelvfeldolgozást és gépi tanulást használ az emberhez hasonló válaszok generálására a felhasználói inputra. Úgy működik, hogy elemezni a felhasználói inputot és generál egy választ annak alapján, hogy milyen kontextust és jelentést értelmez.

Mik a potenciális kockázatok és előnyök az AI-rendszerekben, mint a ChatGPT?

A potenciális kockázatok az AI-rendszerekben, mint a ChatGPT, magukban foglalják a félretájékoztatás terjesztését, a torzítások és sztereotípiák megerősítését, valamint a lehetőséget, hogy ezeket a rendszereket rosszindulatú célokra használják. Az előnyök közé tartozik a személyre szabott támogatás és segítségnyújtás képessége, a nyelvi megértés és generálás javítása, valamint a rutinfeladatok automatizálása.

Hogyan biztosíthatjuk, hogy az AI-rendszereket, mint a ChatGPT, felelősségteljesen fejlesszük és használjuk?

Az AI-rendszerek felelősségteljes fejlesztéséhez és használatához átláthatóságra és elszámoltathatóságra van szükség a fejlesztésükben és telepítésükben. Ez magában foglalja az irányelvek kidolgozását használatukra, a potenciális torzítások és kockázatok tesztelését és értékelését, valamint a szabályozások és törvények kidolgozását fejlesztésükre és használatukra.

Laszlo Szabo / NowadAIs

Laszlo Szabo is an AI technology analyst with 6+ years covering artificial intelligence developments. Specializing in large language models, ML benchmarking, and Artificial Intelligence industry analysis

Categories

Follow us on Facebook!

Kiberbiztonsági csapat a Claude AI hackertámadásra való válasz
Previous Story

Claude AI hackertámadás leleplezi a kormányzati kiberbiztonság gyenge pontjait

burger king ai alkalmazott segítő munka közben a pultnál
Next Story

A Burger King bevezeti az AI alkalmazott segítőt az ügyfél-szolgálati interakciók monitorozására

Latest from Blog

Go toTop