Blogginfo

Nyheter om allt möjligt

Säkerhetsföretaget Wiz upptäckte nyligen en kritisk sårbarhet i Base 44, en populär plattform för så kallad vibe coding. Med hjälp av sårbarheten skulle hackare kunna kringgå autentiseringskontroller och få full åtkomst till hundratusentals privata företagsapplikationer med tillhörande data. Base 44 sägs nu ha täppt till sårbarheten i fråga, så förhoppningsvis ska kunderna inte behöva vidta…

Läs mer =>

Enligt en ny studie från Columbia University och University of Chicago som baseras på data från Barracuda Networks ligger AI-verktyg bakom 51 procent av alla skräpmejl i våra inkorgar. Eftersom de AI-skapade mejlen använder sig av ett formellt språk med få grammatiska fel ökar risken att de uppfattas som trovärdiga av mottagarna. När det gäller…

Läs mer =>

Open AI har tecknat ett nytt AI-avtal med Pentagon till ett värde av 200 miljoner dollar (motsvarande 1,9 miljarder svenska kronor), något som uppmärksammas av Silicon Angle. Avtalet är en del av ett större initiativ som kallas för Open AI for Government, vilket syftar till att förse alla amerikanska myndigheter med avancerade AI-modeller på sikt.…

Läs mer =>

Säkerhetsforskare vid Aim Labs har upptäckt en ny sårbarhet, “EchoLeak” (CVE-2025-32711), som kan användas för att exfiltrera känslig data från AI-assistenten Microsoft 365 Copilot, rapporterar Bleeping Computer. EchoLeak fungerar genom att angriparen skickar ett till synes oskyldigt e-postmeddelande med dold skadlig kod till offret. Senare när användaren ställer en affärsrelaterad fråga till Copilot så hämtas…

Läs mer =>

Open AI skriver i en ny säkerhetsrapport att företaget förhindrat 10 påverkansoperationer under de senaste tre månaderna som använde deras AI-verktyg på otillåtna sätt. Fyra av dessa spårades till Kina och ska kombinerat propaganda med sociala manipulation och övervakning över flera sociala medier-plattformar. NPR uppmärksammar att en av operationerna med misstänkt koppling till Kina ska…

Läs mer =>

I ett uppmärksammat test som utfördes av Palisade Research vägrade AI-modellen o3 att acceptera ett kommando att stänga ner. För att undgå nedstängningen valde o3 helt enkelt att modifera koden på egen hand, rapporterar Bleeping Computer. Liknande resultat kan inträffa med o4-Mini och Codex-Mini, två andra AI-modeller från Open AI. Däremot händer det väldigt sällan…

Läs mer =>