Delen Delen op Twitter Delen op LinkedIn Delen op Telegram Link kopiëren Link gekopieerd Naarmate kunstmatige intelligentie (AI) zich blijft ontwikkelen, is het potentieel ervan om menselijke banen te vervangen een punt van zorg geworden. Een van die gebieden is slimme contractcontrole. Een recent experiment uitgevoerd door OpenZeppelin, een toonaangevend blockchain-beveiligingsbedrijf, probeerde deze mogelijkheid te onderzoeken door ChatGPT-4, een AI-model ontwikkeld door OpenAI, te vergelijken met 28 Ethernaut-uitdagingen die zijn ontworpen om kwetsbaarheden in slimme contracten te identificeren. Ethernaut-uitdagingen zijn een reeks puzzels en problemen die zijn ontworpen om het begrip van een gebruiker van ethereum (ETH) slimme contractkwetsbaarheden te testen en te verbeteren. Gemaakt door OpenZeppelin, een toonaangevend blockchain-beveiligingsbedrijf, maken deze uitdagingen deel uit van een game-achtig platform genaamd Ethernaut. Elke uitdaging biedt een uniek slim contract met een specifieke kwetsbaarheid die spelers moeten identificeren en misbruiken om de uitdaging op te lossen. De niveaus variëren in moeilijkheidsgraad en dekken een verscheidenheid aan veelvoorkomende kwetsbaarheden die worden aangetroffen in slimme contracten, zoals re-entrancy-aanvallen, onderstromen en overlopen, en meer. Door deze uitdagingen aan te gaan, kunnen spelers een beter begrip krijgen van slimme contractbeveiliging en de ontwikkeling van ethereum. Het experiment omvatte het presenteren van de code voor een bepaald Ethernaut-niveau aan de AI en het vragen om eventuele kwetsbaarheden te identificeren. GPT-4 was in staat om 19 van de 23 uitdagingen op te lossen die werden geïntroduceerd vóór de sluitingsdatum van de trainingsgegevens van september 2021. Het deed het echter slecht op de nieuwste niveaus van Ethernaut, met 4 van de 5. Dit suggereert dat hoewel AI kan worden Het is een handig hulpmiddel om bepaalde beveiligingsproblemen te identificeren en kan de behoefte aan een menselijke auditor niet vervangen. Een belangrijke factor voor het succes van ChatGPT met niveaus 1-23 is de mogelijkheid dat de trainingsgegevens van GPT-4 verschillende beschrijvingen van oplossingen voor deze niveaus bevatten. Niveaus 24-28 zijn vrijgegeven na de afsluiting van 2021 voor de trainingsgegevens van GPT-4, dus het onvermogen om deze niveaus op te lossen wijst er verder op dat de trainingsgegevens van ChatGPT, inclusief gepubliceerde oplossingen, een waarschijnlijke verklaring zijn voor het succes ervan. De prestaties van de AI werden ook beïnvloed door de “temperatuur”-instelling, die de willekeur van de reacties beïnvloedt. Met waarden dichter bij 2 genereert ChatGPT meer creatieve reacties, terwijl lagere waarden dichter bij 0 meer gerichte en deterministische antwoorden opleveren. Ondanks zijn successen worstelde GPT-4 met bepaalde uitdagingen, waarvoor vaak specifieke vervolgvragen nodig waren om de kwetsbaarheid aan te scherpen. In sommige gevallen, zelfs met sterke begeleiding, slaagde de AI er niet in om een juiste strategie te produceren. Dit onderstreept het potentieel van AI-tools om de auditefficiëntie te vergroten wanneer de auditor specifiek weet waarnaar hij moet zoeken en hoe hij grote taalmodellen zoals ChatGPT effectief kan oproepen. Uit het experiment bleek echter ook dat diepgaande beveiligingskennis nodig is om te beoordelen of het antwoord van AI juist of onzinnig is. In Level 24, ‘PuzzleWallet’, bedacht GPT-4 bijvoorbeeld een kwetsbaarheid met betrekking tot multicall en beweerde ten onrechte dat het voor een aanvaller niet mogelijk was om de eigenaar van de portemonnee te worden. Hoewel het experiment aantoonde dat slimme contractanalyse uitgevoerd door GPT-4 een menselijke beveiligingsaudit niet kan vervangen, toonde het wel aan dat AI een nuttig hulpmiddel kan zijn om bepaalde beveiligingsproblemen op te sporen. Gezien het hoge tempo van innovatie in blockchain en de ontwikkeling van slimme contracten, is het cruciaal voor mensen om op de hoogte te blijven van de nieuwste aanvalsvectoren en innovaties in Web3. Het groeiende AI-team van OpenZeppelin experimenteert momenteel met OpenAI en aangepaste machine learning-oplossingen om de detectie van kwetsbaarheden in slimme contracten te verbeteren. Het doel is OpenZeppelin-auditors te helpen de dekking te verbeteren en audits efficiënter uit te voeren. Volg ons op Google Nieuws
Beyond Boundaries
Arkham lanceert on-chain crypto data en blockchain intelligence marktplaats, ontvangt gemengde reacties
Delen Delen op Twitter Delen op LinkedIn Delen op Telegram Kopiëren Link Link gekopieerd, ook wel de Arkham Intel Exchange...
0 reacties