Hva er maskinsyn og hvor viktig er det for selvkjørende biler?

Viktige takeaways

  • Selvkjørende biler er avhengige av maskinsynsteknologi for å se og forstå omgivelsene, slik at de kan oppdage gjenstander, identifisere skilt og navigere veien.
  • Maskinsyn i selvkjørende biler består av et kamerasystem, edge computing og AI-algoritmer, som jobber sammen for å samle visuell informasjon, behandle den i sanntid og identifisere mønstre og objekter.
  • Maskinsyn er avgjørende for å oppnå full autonomi i selvkjørende biler, da det muliggjør objektklassifisering, kjørefelt- og signaldeteksjon, skiltidentifikasjon og trafikkgjenkjenning. Fremtiden til autonome kjøretøy ligger i fremskritt innen AI, edge computing og kamerateknologi.

Selvkjørende biler har alltid vakt oppmerksomhet. Selv om vi kanskje ikke har helt autonome biler ennå, har vi biler med avanserte førerassistansesystemer (ADAS) som er i stand til automatisk styring, filskifte, parkering og trafikkbevisst cruisekontroll.

En selvkjørende bil bruker en rekke sensorer for sin ADAS, med maskinsyn som den primære måten å oppdage, identifisere og beregne avstanden til objekter og de generelle omgivelsene. Uten maskinsyn er selvkjørende biler med cruisekontroll og autopilot svært lite sannsynlig.

Hva er Machine Vision?

Maskinsyn er en teknologi som lar maskiner se og gjenkjenne objekter i omgivelsene. Det er en undergruppe av datasyn som fokuserer på industrielle anvendelser av visjonsorientert objektdeteksjon i autonome maskiner som roboter og kjøretøy.

Maskinsyn bruker i dag AI dyplæringsalgoritmer som konvolusjonelle nevrale nettverk (CNN) for å lage robuste og godt generaliserte modeller som nøyaktig kan identifisere objekter under ulike forhold. Det gjør det mulig å implementere maskinsyn på ulike oppgaver som krever høyere pålitelighet innen produksjon, landbruk, robotikk og bilindustrien.

  Ville du infisert andre for å kvitte deg med løsepengeprogramvare?

Hvordan fungerer maskinsyn i selvkjørende biler?

Maskinsyn i selvkjørende biler kan typisk deles inn i tre deler: kamerasystemet, prosessering (edge ​​computing) og AI. Denne teknologistabelen lar et autonomt kjøretøy se, tenke og identifisere tegn og hindringer mens de kjører. La oss diskutere hver del i dybden for å forstå hvordan disse teknologiene henger sammen for å danne en selvkjørende bils maskinsyn.

Kamerasystem

Maskinsyn er avhengig av kamerasystemer for å samle visuell informasjon om miljøet. Selvkjørende biler bruker flere kameraer installert rundt bilen for å samle så mye visuell informasjon som mulig.

To hovedsensorer brukes i maskinsynskameraer: komplementære metalloksid-halvledere (CMOS) og ladningskoblede enheter (CCD). For selvkjørende biler er CMOS ofte foretrukket på grunn av sin raske avlesningshastighet, kraftige elektronikk på skipet og parallellbehandlingsevner, noe som gjør den til den raskere sensoren, om enn utsatt for støy eller gjenstander. Løsninger, som forskjellige lysmoduser, digitalt nattsyn og filtre, kan hjelpe CMOS-sensoren under mindre enn ideelle lysforhold.

For selvkjørende biler er kameraer installert i visse avstander fra hverandre for å produsere stereoskopisk syn. Stereoskopisk syn er evnen til å kombinere to eller flere visuelle input, og skape en følelse av dybde eller tredimensjonalitet i objekter og miljøet. Dette lar i sin tur biler triangulere og beregne den omtrentlige avstanden mellom objektet og bilen.

Siden mennesker har to øyne, har vi også nytte av stereoskopisk syn. Du kan teste det selv; lukk det ene øyet og velg en liten gjenstand fra skrivebordet. Plasser hånden på objektets side og sørg for at tuppen av objektet er minst to tommer unna. Prøv å ta en pause i noen sekunder og se hvor sikker du er på tilnærmingen din. Prøv nå å åpne begge øynene og se hvordan dybdesansen din er mye bedre.

  9 Data Center Infrastructure Management (DCIM) programvare

Edge datamaskin

Mens kamerasystemet på den selvkjørende bilen samler data, vil en innebygd datamaskin (kantprosessor) behandle alle inngangene i sanntid for å oppdatere systemet om statusen til miljøet umiddelbart. Selv om typiske maskinsynsoppgaver kan spare penger ved bruk av cloud computing, er det rett og slett for stor risiko for at selvkjørende biler kobles til skyen, selv om det er for å outsource prosessen i kravene til maskinsyn.

Bruk av en edge-datamaskin for å behandle inngangsdata eliminerer latensproblemer og sikrer at data mottas, behandles og kommuniseres i sanntid. Edge-datamaskiner for selvkjørende biler bruker spesialiserte datamaskiner som integrerer AI-grafikkprosessorer som NVIDIAs Tensor Core og CUDA Cores.

AI-algoritmer

Algoritmer har alltid vært en avgjørende del av maskinsyn. Algoritmen er det som lar en datamaskin identifisere alle mønstrene, formene og fargene fra kamerasystemet. Å bruke AI over mer tradisjonelle maskinsynsalgoritmer forbedrer i stor grad muligheten til en selvkjørende bil til pålitelig å identifisere objekter, gateskilt, veimerker og trafikklys. Mange AI-algoritmer brukes til å trene selvkjørende biler. De mest populære inkluderer:

  • YOLO (You Only Look Once): En gjenstandsdeteksjonsalgoritme i sanntid som identifiserer og sporer objekter i bilens synsfelt.
  • SIFT (Scale-Icar’sant Feature Transform): Brukes for ekstraksjon av funksjoner, og hjelper bilen å gjenkjenne karakteristiske landemerker og objekter i omgivelsene.
  • Histogram of Oriented Gradients (HOG): Brukes til objektgjenkjenning, og fokuserer på å trekke ut lokale mønstre og gradienter fra bilder.
  • TextonBoost: En algoritme som hjelper med gjenkjenning av objekter ved å analysere teksturer i miljøet.
  • AdaBoost: Ansatt for dataklassifisering, kombinerer AdaBoost flere svake klassifiseringer for å ta sterke avgjørelser om objektene og hindringene i kjøretøyets vei.
  Borderlands 2 Golden Key-koder: Løs inn nå

Viktigheten av maskinsyn i selvkjørende biler

Bildekreditt: Automobile Italia/Flickr

Maskinsyn er den primære måten for en selvkjørende bil å sanse og forstå omgivelsene. Uten maskinsyn er det svært sannsynlig at selvkjørende biler vil bli presset tilbake til nivå 1 på kjøretøyets autonomiskala og kanskje aldri når full autonomi.

Med maskinsyn er selvkjørende biler nå i stand til objektklassifisering, kjørefelt- og signaldeteksjon, skiltidentifikasjon og trafikkgjenkjenning.

Selv om mange selvkjørende kjøretøy nå bruker forskjellige sensorer, som LIDAR, RADAR og SONAR, er alle avhengige av maskinsyn for å se miljøet, identifisere objekter og forstå betydningen av skilt og trafikklys på veien. Alle disse ekstra sensorene er kun der for å øke maskinsynet og fremme sikkerheten til mennesker, dyr og eiendommer.

Når det er sagt, kan maskinsyn utføres uavhengig uten hjelp av andre sensorer for å gi autopilotfunksjoner. Faktisk droppet Teslas nyeste selvkjørende biler RADAR og er nå utelukkende avhengig av maskinsyn for sitt autopilotsystem.

Selv om dette ikke betyr noe når det gjelder å diskreditere nytten av andre sensorteknologier, viser det viktigheten og kraften til maskinsyn i selvkjørende biler.

Fremtiden for maskinsyn i autonome kjøretøy

Maskinsyn er grunnlaget for selvkjørende biler. Gjennom maskinsyn kan biler se og oppfatte miljøet akkurat slik mennesker gjør. Mens utfordringene vedvarer, kan ikke fordelene med maskinsyn når det gjelder sikkerhet og navigasjon undervurderes. Når det gjelder fremtiden til autonome kjøretøyer, vil eventuelle videre fremskritt innen AI, edge computing og/eller kamerateknologi sikkert gjøre selvkjørende biler mer dyktige, noe som sannsynligvis vil flytte dem til et høyere automatiseringsnivå.