• Hoofd
  • Ander
  • AI komt griezelig dichter bij Data from Star Trek: TNG nu het weet of je het wel of niet kunt vertrouwen

AI komt griezelig dichter bij Data from Star Trek: TNG nu het weet of je het wel of niet kunt vertrouwen

Welke Film Te Zien?
 
>

Het is misschien niet zo zelfbewust als Data from Star Trek: TNG (nog), vooral omdat die droid beter voor een kat zou kunnen zorgen dan sommige mensen, maar AI heeft nu het punt bereikt dat het zich realiseert wanneer het niet betrouwbaar is.



Wat heet nu diepe bewijsregressie heeft het zelfbewustzijn van AI verhoogd. Het zal weten wanneer het een grotere kans heeft om een ​​voorspellingsfout te maken, op basis van het evalueren van de betrouwbaarheid van de gegevens waarnaar het kijkt. Toekomstvoorspellingen hebben meer kans om uit te werken als ze worden beïnvloed door meer grondige en nauwkeurige gegevens. Het tegenovergestelde betekent dat er waarschijnlijk iets mis zal gaan - en de AI kan dat voelen. Wanneer het zijn zekerheid over iets inschat, zal die zekerheid op en neer gaan, afhankelijk van de gegevens die het krijgt. De AI kan dan risico of onzekerheid met 99% nauwkeurigheid bepalen.

Het lijkt erop dat zelfs Picard onder de indruk zou zijn - maar wacht. Er is slechts één nadeel aan zelfbewuste robots, en dat is dat 99% geen volledige zekerheid is, hoe dichtbij het ook is. Een afwijking van slechts 1% kan een ramp betekenen in potentieel levensbedreigende scenario's, van het besturen van een autonome auto tot het uitvoeren van een operatie. Eng.







Hoewel [diepe bewijskrachtregressie] verschillende voordelen biedt ten opzichte van bestaande benaderingen, zijn de belangrijkste beperkingen het afstemmen van de regularisatiecoëfficiënt en het effectief verwijderen van niet-misleidend bewijsmateriaal bij het kalibreren van de onzekerheid, zei MIT Ph.D. student Alexander Amini , die een onderzoek leidde dat hij volgende maand zal presenteren op de NeurIPS-conferentie.

Wat Amini en zijn team hebben weten te bereiken, is nog steeds behoorlijk opmerkelijk. Daarvoor was het gebruik van AI om onzekerheid in te schatten niet alleen duur, maar ook veel te traag voor beslissingen die in fracties van een seconde moesten worden genomen. Neurale netwerken kunnen zo immens groot zijn dat het een eeuwigheid kan duren voordat ze een antwoord hebben berekend, en het wachten om het vertrouwensniveau te leren kennen zou te lang duren om zelfs maar de moeite te nemen. Het zou zinloos zijn om zoiets in een zelfstudie te gebruiken. -rijdende auto die meteen moet weten welke bocht hij moet maken. Het proces is versneld door diepe bewijskrachtregressie. Dit neurale netwerk hoeft maar één keer te draaien om de mate van onzekerheid te achterhalen.

Door te gissen naar de onzekerheid in een model dat de AI al heeft geleerd, kan het ons ongeveer vertellen hoe groot de foutmarge is. De AI gebruikt bewijsmateriaal om zijn schatting te staven. Dit bewijs omvat elke onzekerheid die ofwel op de loer ligt in de gegevens die zojuist door het neurale netwerk zijn geanalyseerd, ofwel het zelfbewustzijn van hoe zeker het is in zijn eigen beslissing. Amini en zijn team testten de diepe bewijsregressiemethode door de AI te trainen om de diepte van elke pixel in een afbeelding te schatten. Diepteperceptie kan leven of dood betekenen bij een operatie waarbij een tumor moet worden verwijderd die zich diep in het lichaam kan bevinden en anders moeilijk te zien is.

De AI was meestal nauwkeurig, maar het is verpest zodra het afbeeldingen kreeg die moeilijker te onthouden waren. Er was in ieder geval één ding waar het consistent in was: wanneer het geconfronteerd werd met beelden die het moeilijk maakten, zou het het team zonder mankeren over de onzekerheid informeren. De vastgestelde foutenmarge kan onderzoekers in ieder geval leren hoe ze dat model kunnen verbeteren. De mogelijkheid om foto's te herkennen die gephotoshopt zijn, opent ook de mogelijkheid om deepfakes te herkennen. Mensen moeten zich er gewoon van bewust zijn dat dit robotbrein nog steeds feilbaar is, en we kunnen het niet meer vertrouwen dan het zichzelf kan vertrouwen.

Wij zijn van mening dat verder onderzoek gerechtvaardigd is om alternatieve manieren te vinden om niet-misleidend bewijsmateriaal te verwijderen, Amini zei .

Dit betekent dat AI die kan denken met behulp van diepe bewijsregressie redelijk betrouwbaar is, zolang de uitkomst van een verkeerd antwoord niet dodelijk zou zijn.