Red Teaming AI Agents: Securing Autonomous Systems and Preventing Tool Misuse (eBook)

Red Teaming AI Agents: Securing Autonomous Systems and Preventing Tool Misuse (eBook)

Matteo Velmont
Matteo Velmont
Prezzo:
€ 33,99
Compra EPUB
Prezzo:
€ 33,99
Compra EPUB

Formato

:
EPUB
Cloud: Scopri di più
Lingua: Inglese
Editore: MooshByte Publication
Codice EAN: 9798232161378
Anno pubblicazione: 2026
Scopri QUI come leggere i tuoi eBook
Abbonati a Kobo Plus per avere accesso illimitato a migliaia di eBook

Note legali

NOTE LEGALI

a) Garanzia legale, Pagamenti, Consegne, Diritto di recesso
b) Informazioni sul prezzo
Il prezzo barrato corrisponde al prezzo di vendita al pubblico al lordo di IVA e al netto delle spese di spedizione
Il prezzo barrato dei libri italiani corrisponde al prezzo di copertina.
I libri in inglese di Libraccio sono di provenienza americana o inglese.
Libraccio riceve quotidianamente i prodotti dagli USA e dalla Gran Bretagna, pagandone i costi di importazione, spedizione in Italia ecc.
Il prezzo in EURO è fissato da Libraccio e, in alcuni casi, può discostarsi leggermente dal cambio dollaro/euro o sterlina/euro del giorno. Il prezzo che pagherai sarà quello in EURO al momento della conferma dell'ordine.
In ogni caso potrai verificare la convenienza dei nostri prezzi rispetto ad altri siti italiani e, in moltissimi casi, anche rispetto all'acquisto su siti americani o inglesi.
c) Disponibilità
I termini relativi alla disponibilità dei prodotti sono indicati nelle Condizioni generali di vendita.

Disponibilità immediata
L'articolo è immediatamente disponibile presso Libraccio e saremo in grado di procedere con la spedizione entro un giorno lavorativo.
Nota: La disponibilità prevista fa riferimento a singole disponibilità.

Disponibile in giorni o settimane (ad es. "3-5-10 giorni", "4-5 settimane" )
L'articolo sarà disponibile entro le tempistiche indicate, necessarie per ricevere l'articolo dai nostri fornitori e preparare la spedizione.
Nota: La disponibilità prevista fa riferimento a singole disponibilità.

Prenotazione libri scolastici
Il servizio ti permette di prenotare libri scolastici nuovi che risultano non disponibili al momento dell'acquisto.

Attualmente non disponibile
L'articolo sarà disponibile ma non sappiamo ancora quando. Inserisci la tua mail dalla scheda prodotto attivando il servizio Libraccio “avvisami” e sarai contattato quando sarà ordinabile.

Difficile reperibilità
Abbiamo dei problemi nel reperire il prodotto. Il fornitore non ci dà informazioni sulla sua reperibilità, ma se desideri comunque effettuare l'ordine, cercheremo di averlo nei tempi indicati. Se non sarà possibile, ti avvertiremo via e-mail e l'ordine verrà cancellato.
Chiudi

Descrizione

AI agents are no longer just answering questions. They write code, move money, call tools, talk to other agents, and sometimes… do exactly what you didn't want them to do. This book exists for that moment. Red Teaming AI Agents is a practical, opinionated, and occasionally sarcastic guide to understanding how autonomous AI systems fail, how they get abused, and how to break them before attackers do. If you're building, deploying, or defending AI agents and hoping "alignment" alone will save you, this book is here to gently (and humorously) ruin that illusion. You'll learn why traditional security models fall apart once an AI can plan, remember, and act. We'll explore how prompt injection evolves into instruction hijacking, how innocent tools turn into dangerous capabilities, and how agent memory becomes a long-term liability if you don't treat it like one. From single-agent failures to multi-agent collusion nightmares, this book walks through real-world threat models that actually reflect how agentic AI behaves in production. This is not a fear-mongering manifesto. It's a red team playbook. Inside, you'll discover: How autonomous agents expand the attack surface in ways classic security never anticipated Why tool misuse is the fastest path from "helpful assistant" to "incident report" How memory poisoning and context manipulation silently corrupt agent behavior What goes wrong when multiple agents start cooperating without proper controls How to design red teaming evaluations that reveal failures before users do Practical defenses: least privilege, instruction hierarchies, monitoring, and kill switches Case studies that prove "it worked in testing" means absolutely nothing Written for AI engineers, security professionals, researchers, and builders who want to stay ahead of misuse, this book balances deep technical insight with clear explanations, real scenarios, and hard-earned lessons. You don't need a PhD in machine learning, but you do need curiosity, humility, and a healthy distrust of autonomous systems that claim to be "safe by default." If you're serious about deploying AI agents responsibly, this book will help you think like an attacker, build like a defender, and sleep better knowing your systems won't self-sabotage at 3 a.m. Break your agents. Learn from it. Secure them properly. Because the best time to red team your AI was yesterday. The second-best time is before your agent discovers creative freedom.