Skriv ut

Intel lanserar ett FPGA-kort som ska göra så kallade inferenser i artificiella neuronnät. Företaget har på sistone slagit på stora trumman för att etablera sig som en spelare inom området artificiella neuronnät. Området väntas bli gigantiskt, men  konkurrenten Nvidia har ett stort försprång.

Under två superdatorkonferenser – Super Computing SC16 och den egna konferensen HPC developer conference – har Intel ägnat mycket av sitt program åt att lyfta fram sina satsningar inom området articiell intelligens, närmare bestämt inom maskininlärning och artificiella neuronnät, det vill säga deep learning, den idag nyhetsdominerande tekniken inom AI-området.

Intel har försökt ge sig en flygande start inom deep learning via uppköp och har även kommit igång med egen utveckling.

Det mest spännande i Intels portfölj är en teknik företaget skaffade sig i augusti med köpet av uppstartföretaget Nervana. Ett Nervana-chip kommer att gå i produktion under första halvåret nästa år och Nervana-kärnor kan också komma att ingå i systemkretsar från Intel. En av de första produkterna kommer att vara ett PCI Express-kort.

Med Nervanas teknik påstår sig Intel komma att kunna konkurrera med Nvidas grafikkort som idag helt dominerar när det gäller den extremt beräkningsinstensiva operationen att programmera, eller träna, artificiella neuronnät. 

– Det är inget unikt med GPU:er som ger dem en fördel för AI, säger Intels vd Brian Krzanich.

Nervanas teknk ska även kunna användas för inferenser, det vill säga för beräkningar på neuronnät som redan är färdigtränande. Träning sker en gång för alla, medan inferenser dras när näten används, exempelvis när en automatöversättning görs, eller en videobild analyseras för att identifiera fotgängare. 

Nervana levereras med egna utvecklingsverktyg, vilket kan vara en nackdel i och med att det redan finns flera etablerade verktygsplattformar.

Intel har optimerar sin superdatorprocessorfamilj Xeon Phi för AI-beräkningar. Företaget är sparsmakat på detaljer, men en typisk sådan optimering är att stödja matematik i lägre precision.

Knights Landing-processorn Knights Mill ska släppas under 2017. Den sägs ha höjt precisionen på single precision och ska dessutom vara optimerad för mixed precision, att blanda flyttal av olika precision i samma operation.
 
Elektroniktidningen gissar att AI-optimerade instruktioner kommer att introduceras till fler av Intels arkitekturer och att de kommer att få acceleratorkärnor för AI, liksom de idag kan accelerera bildbehandling och kryptering. 

Utvecklingen pekar mot att AI-beräkningar kommer att göras ända ute i IoT-nätets noder för att fatta lokala beslut eller för att filtrera data innan de tankas upp i molnet. 

I alla fall tänker Intel på det viset.

– Utan någon sorts artificiell intelligens kommer sådana enheter bara att generera brus, säger Brian Krzanich.

Här har köpet av irländska Movidius gett Intel en stark bas. Köpet – för en hemlig summa pengar – annonserades i september och gav Intel strömsnåla AI-chips som kan sitta i både fordon, drönare och smarttelefoner. 

En konkret nyhet inom AI-området är ett Altera FPGA-kort för acceleration för deep learning-inferenser. Produkten heter Deep Learning Inference Accelerator och tar upp en PCIe-plats. Den innehåller en Arria 10-FPGA och levereras med utvecklingsverktyg och algoritmer. 

Kortet presenteras nu, men kommer inte att finnas att köpa förrän nästa år. Intel äger Altera sedan i fjol somras. Det är Intels dyraste företagsköp någonsin – 150 miljarder kronor.

Fördelen med FPGA:er är att de har snabba gränssnitt och kan skräddarsys dynamiskt för artificiella neuronnät, som varierar friskt i topologi och precision. 

Microsoft fastnade för idén före Intel, och har under en tid letat efter en lämplig plats att stoppa in Alteras FPGA-kort för artificiella neuronnät i sina servermoln. Att hitta en optimal tillämpning har varit svårare än Microsofts hoppades – företaget är redan inne på sin tredje generation experiment.