Canon har gjort mycket buller med sitt nya Deep Learning AF-system, som ligger i hjärtat av tillverkarens senaste professionella professionella kamera. Det låter otroligt smart, men det finns många frågor - vad är Deep Learning? Vem gör undervisningen? Lär systemet när du skjuter? Är det verkligen artificiell intelligens i en kamera? Gör det faktiskt autofokus bättre?
Om du har läst vår Canon EOS-1D X Mark III-recension vet du att svaret på den sista frågan är ett rungande ja. När det gäller svaren på de andra frågorna om Deep Learning AF, ta dig en drink och ett mellanmål och läs vidare …
Autofokusmekaniken i Canon EOS-1D X Mark III är otroligt smart och stöder två individuella AF-system. För det första är det optiska systemet, som skjuter 16 bilder per sekund genom sökaren, med en 400 000 pixel mätningssensor i kombination med en dedikerad Digic 8-processor, för 191-punkts AF som kan ansiktsspårning.
Sedan finns det Live View-systemet, som kan ta 20 bilder per sekund och använda alla 20,1 miljoner pixlar i bildsensorn i kombination med den nya Digic X-processorn, för 3 869 CMOS-punkter med dubbla pixlar som kan utföra AF med full ögondetektering.
Att driva båda dessa system är Canons kärna EOS iTR AFX-teknik - den senaste iterationen av Intelligent Tracking and Recognition Auto Focus, som debuterade i den ursprungliga EOS-1D X (och därefter gjorde sin väg till 7D Mark II och 5D-familjen). Och begravd inom dess kretslopp är Deep Learning-algoritmen.
Deep Learning är INTE detsamma som AI
Först och främst är det viktigt att klargöra att Deep Learning inte ska förväxlas med artificiell intelligens (AI). Ett AI-system är något som håller på att utvecklas. Deep Learning, eller maskininlärning, är en delmängd av AI.
Till skillnad från sann AI är Deep Learning en sluten process. Det är en förmonteringsalgoritm som gör det möjligt för kameraarkitekturen att i huvudsak lära sig själv, mycket snabbare än det kunde manuellt programmeras av mänskliga ingenjörer. När detta lärande har slutförts låses det ned och laddas i kameran.
Från den punkten är inget mer lärande möjligt; trots namnet - och Deep Learning är namnet på tekniken, inte en beskrivning av processen - kameran lär sig inte hela tiden och kommer inte att bli "bättre" ju mer du skjuter (faktiskt skulle ett riktigt AI-system lära sig så många av dina dåliga vanor som det skulle vara dina goda!).
"Det har lärt sig", förklarar Mike Burnhill, chef för teknisk support för Canon Europe. "Du lägger in den i en dator, den skapar algoritmen som sedan laddas in i kameran. Så den skiljer sig från AI - AI är en kontinuerlig inlärning; djupt lärande är i grund och botten, det lär sig själv och ger dig ett slutresultat som sedan laddas in i kameran. "
Vilket väcker frågan: med så många företag som ropar om AI-baserade funktioner, kan en kamera faktiskt stödja artificiell intelligens?
"Processorkraften för att göra sann AI är inte möjlig i en kamera", säger Burnhill. "Om du vill göra det finns det telefoner - men informationen finns inte i din telefon, den ligger i Silicon Valley. Det är där AI-systemet är. Det är bara, din telefonanslutning ansluter till den - den är inte här, den är där (i molnet), eftersom du behöver en server. Vi skulle kunna göra en kamera, men du skulle ha en jätteflygväska med dig hela tiden. "
Hur lär Deep Learning sig själv?
Så, Deep Learning-algoritmen lär sig själv - men var lär den sig faktiskt av? Svaret, helt enkelt, är "från det bästa".
"Canon arbetade med våra byråer", säger Burnhill. "Vi fick i princip tillgång till hela deras bilddatabas med sportfotografering, från alla större byråer, vi arbetade med våra ambassadörer som skjuter sport, och de gav sina bilder av olika ämnen, och det gjorde det möjligt för oss att lära detta AF-system hur man känner igen människor i sport. "
Sport är uppenbarligen den riktade inlärningsmetoden eftersom Canon EOS-1D X Mark III främst är en sportkamera. Problemet är, oavsett om det är en basketspelare som vetter bort från kameran, en skidåkare som bär skyddsglasögon eller en Formel 1-förare som bär hjälm, människor i sport har ofta ansikten fördolda - vilket innebär att traditionellt ansikte eller till och med ögondetektering AF inte har ' t fungerar, och kameran låses istället på saker som siffrorna på en spelares uniform.
Genom att ge Deep Learning-algoritmen tillgång till ett stort bildbibliotek, allt från upp och ner gymnaster till hockeyspelare som bär kuddar och hjälmar, kan den lära sig och differentiera den mänskliga formen i en oändlig mängd olika situationer - och kan i slutändan att utföra denna "huvuddetektering", så att även om personens ansikte inte är synligt, är huvudet alltid det primära fokuspunkten.
"Djupt lärande är i grunden bilder, man skapar en uppsättning regler för att man ska kunna lära sig, och sedan går det och det skapar sin egen algoritmbaserade", fortsätter Burnhill. "Så du ställer in parametrarna för hur personen skulle se ut, du går," Här är personen ", sedan analyserar den alla bilder av människor och säger" Detta är en person "," Det är en person ". Det går igenom miljoner bilder under en tidsperiod och skapar den databasen, och den lär sig själv. "
Faktum är att algoritmen faktiskt skapar två databaser - en för att betjäna det optiska sökarens AF-system och mätning med Digic 8 och en för att betjäna Live View AF-systemet som använder Digic X. Eftersom det är Digic X som gör all beräkning för head tracking, när AF-algoritmen upptäcker en person i ramen, skjuts allt över till den nya processorn.
"När du väl har fått en person in, har du faktiskt fått dubbel bearbetning", säger Burnhill. "Det finns två databaser här, eftersom ingången från båda sensorerna kommer att vara något annorlunda, så hur den känns igen kommer att vara något annorlunda, så det här är underuppsättningar av samma algoritm. Kärndata för dem båda är desamma, det är bara hur det kommer att kännas igen och rätt data tillämpas på det. "
Om den inte kan lära sig nya saker … hur är det med djur-AF?
Naturligtvis är Canon EOS-1D X Mark III inte bara en sportkamera - dess andra viktiga publik är naturskyttar. Ändå har kameran inte kapacitet för autofokus för djur, och vi har fastställt att Deep Learning faktiskt inte kan lära sig några nya knep när den har bakats in i kameran. Så är det det? Med all den här snygga nya tekniken, kommer kameran inte ens att fokusera på familjens hund?
Det är sant att just nu har kameran inte djur (eller djuröga) AF. "I grund och botten koncentrerar vi oss på människor att börja med för att få den typen av algoritm att fungera först", svarar Burnhill. "Det är därför vi har typ av fokus på sport, för det är en bestämd parameter och vi kan lära ut den under en viss tidsperiod,"
Svaret ligger alltså i firmware. Burnhill bekräftade att det finns potential för kameran att genomgå mer Deep Learning, för saker som fåglar och vilda djur, och att denna uppdaterade algoritm sprids till användarna via firmwareuppdateringar - även om det inte finns några konkreta planer att meddela.
"Vi kommer att utveckla den hela tiden, så för närvarande är det fortfarande oklart hur och vart vi går. Men utvecklingsteamet går och tittar på andra djurfotografering - vi inser att det finns en hel mängd fält, men uppenbarligen de stora fokus för denna kamera är sport och därefter vilda djur, och uppenbarligen med Tokyo 2022-2023 var detta prioriterat. "
Det är en rättvis poäng; om Canon väntade på att Deep Learning skulle lära sig allt, skulle det ha tagit längre tid för kameran att släppas. Och även om tillverkare som Sony skryter med vissa selektiva djur-AF i sina kameror, noterar Burnhill att Canon hellre vill släppa en komplett djur-AF-lösning snarare än en selektiv, bitvis. Och det är här Deep Learning kommer att bli ovärderligt.
"Problemet är med vilda djur, det finns många olika djur - du har uppenbarligen rovdjur med ögonen på framsidan, och sedan har du kaniner (ögon) vid sidan, du har ormar, du har fåglar … det finns inget system som känner igen alla djurs ansikten. Och det är där du kommer in i hela denna Deep Learning, att lära systemet att känna igen dessa komplexa saker. "
Så medan din Sony kanske kan spåra din hund eller din katt, men inte en salamander eller en flamingo, vill Canon producera en kamera som gör allt eller ingenting. "Om vi skulle göra det skulle vi vilja göra det för ett så brett spektrum - vi vill inte göra en hundvänlig kamera och en kattvänlig kamera, vi vill göra en djurvänlig kamera som fungerar för det stora utbudet av djur som (proffs) skulle skjuta. "
Canon EOS-1D X Mark III recension
Hur gjorde Canon den snabbaste DSLR någonsin? Genom att omforma spegellådan
102 uppdateringar om Canon EOS-1D X Mark III