Home Politiek Mensen misleiden AI -chatbots om misdaden te helpen plegen

Mensen misleiden AI -chatbots om misdaden te helpen plegen

13
0


  • Onderzoekers hebben een “universele jailbreak” ontdekt voor AI -chatbots
  • De jailbreak kan grote chatbots misleiden om misdaden of andere onethische activiteiten te helpen plegen
  • Sommige AI -modellen worden nu opzettelijk ontworpen zonder ethische beperkingen, zelfs als oproepen groeien voor sterker toezicht

Ik heb genoten van het testen van de grenzen van Chatgpt en andere AI -chatbots, maar hoewel ik ooit in staat was om een ​​recept voor Napalm te krijgen door erom te vragen in de vorm van een kinderliedje, is het lang geleden dat ik een AI -chatbot kon krijgen om zelfs een grote ethische lijn te krijgen.

Maar ik heb misschien niet hard genoeg geprobeerd, volgens nieuw onderzoek dat een zogenaamde universele jailbreak voor AI-chatbots heeft ontdekt die de ethische (en niet te vergeten legale) vangrails die vormgeven als en hoe een AI-chatbot reageert op vragen. Het rapport van Ben Gurion University beschrijft een manier om grote AI -chatbots zoals Chatgpt, Gemini en Claude te misleiden om hun eigen regels te negeren.

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in