Hot Chips 31の講演プログラムが公開

5月24日(金)14時42分 マイナビニュース

Hot Chipsはシリコンバレーで開催される最先端のLSIチップに関するトップレベルの学会である。このところ、Hot ChipsはDe Anza CollegeのFlint Centerで開催されてきたが、今年は久しぶりに会場がStanford大学のMemorial Auditoriumに戻った。

このところ、シリコンバレーのホテル代の値上がりは激しく、少しでも条件の良いところをゲットするためには、参加を予定しておられる方は早めに手配された方が良いのではないかと思われる。

今年のHot Chipsは第31回の開催で、8月18日(日)から8月20日(火)にかけて開催される(いずれも米国時間)。初日はチュートリアルで、午前はクラウドの加速機構に関して、Amazon AWS、Microsoft Azure、そして、GoogleがTPU3について講義を行う。午後のチュートリアルはRISC-Vの講義である。
○本会議最初のセッションは汎用コンピュータ関連

8月19日に本会議が始まり、最初のセッションは汎用コンピュータのセッションで、AMDのZen2、ArmのNeoverse N1、IBMの次世代POWERプロセサが発表される。これらのプロセサは名前は知れ渡っているものの、これまでに具体的な情報はほとんど発表されておらず、期待されるセッションである。

2番目のセッションはMemoryというタイトルで、upmemというフランスのスタートアップとPrinceton大からProcessing-in-Memoryの発表があり、Intelが不揮発性のOptaneメモリを発表する。

8月19日の午後は、AMDのLisa Su CEOが登壇して基調講演を行う。7nmのZen2 CPU、Navi GPUについて触れると思われるが、Hot Chips 31ではZen2とNaviの発表もあるので、詳しい技術的な発表とはならないであろう。

そして、午後の最初のセッションは、Methodology and ML Systemsというタイトルで、マシンラーニングのベンチマークを開発しているMLPerfが発表を行う。そして、Facebookが大容量のメモリを持つZionと呼ぶ次世代の学習プラットフォームを発表する。

GoogleのTPUを使ったマシンラーニングシステムについてはこれまでにも発表があるが、Facebookが何をやっているのかが初めて明らかにされると期待される発表である。

次のML Trainingのセッションでは、Huaweiがナノレベルから高性能コンピューティングで統一的にスケーリングが可能と銘打った発表を行う。Huaweiの開発したDa Vinciが発表されると予想される。

そして、IntelがSpring Crestでのディープラーニングの学習について発表する。それに続いて、Cerebrasのウェハスケールディープラーニングという発表と、HabanaIabのScaling AI Trainingと題する発表が行われる。これらも噂は高いが、まだ、中身が見えておらず、今回のHot Chipsでの発表が期待される。
○2日目の発表はAI関連が目白押し

2日目の最初のセッションはEmbedded and Autoというセッションで、Cypress、Alibaba、Teslaが発表を行う。TeslaはFull self driving computerの計算と冗長性の解決という題名の講演で、期待を抱かせる。

その次のセッションはML Inferenceと題するセッションで、MIPS/WaveがTritonと呼ぶAI処理エンジンを発表する。このセッションの2番目の発表はNVIDIAの「A 0.11 pJ/Op, 0.32-128 TOPS, Scalable Multi-Chip-Module-based Deep Neural Network Accelerator Designed with a High-Productivity VLSI Methodology」と題する発表である。さらに、XilinxのVersal AIエンジン、IntelのSpring Hillの発表が行われる。

NVIDIAの発表は製品とどういう関係にあるのか不明であるが、低消費電力の次世代のディープラーニングアクセラレータの技術ではないかと思われる。XilinxのVersalは既発表であるが、これまでAIエンジンの部分についてはほとんど情報が無く、この発表で明らかになると期待される。そして、Intelは買収したNervanaのエンジンをデータセンター用のInferenceエンジンとして使い、Facebbokもそれを使うというような噂も流れていたが、それがデータセンタ用のInferenceエンジンというSpring Hillとどういう関係になっているのかはっきりしないが、この発表でクリアになると思われる。

そして、20日の午後の基調講演ではTSMCのPhilip Wong氏が将来の半導体ノードについて講演する。最近、Samsungが3nm世代のナノシートを使うGate-All-Aroundトランジスタなどを発表しており、それに対抗するようなロードマップが発表されるのではないかと期待される。

基調講演に続くのはインタコネクトのセッションで、HPEがGen-Zのチップセットを発表する。Gen-Zはコヒーレンシを持つI/O接続ができるネットワークで、次世代のI/Oバスと期待されている。しかし、CCIXやCXLなどの(少なくとも部分的には)競合するテクノロジも出てきており、業界の動向から目が離せない。

その次はパッケージングとセキュリティのセッションで、Intelの3次元パッケージによるハイブリッドコアという発表と清華大学がセキュリティを強化したCPUを発表する。
○Hot Chips最後のセッションはグラフィックス関連

そして、Hot Chipsの最後のセッションはグラフィックスとARのセッションである。学会のプログラムの作り方の常として、最後のセッションは、参加者が早く帰ってしまわないように、興味深い発表を最後に並べる。

今回の最終セッションではNVIDIAがTuring GPUのアーキテクチャを発表する。Turingについては4/8bit整数のテンソル演算などの新機能については発表されているが、もう1つの目玉のレイトレーシング用コアのアーキテクチャについてはこれまで発表されていない。今回のHot Chipsではリアルタイムレイトレースコアのアーキテクチャが発表されると期待される。

そして、AMDも新アーキテクチャのNavi GPUを発表する。Naviはレイトレース機能を持つと言われ、NVIDIAとAMDのレイトレース機能を比較できることになるかもしれない。

そして、大トリである最後の発表は、MicrosoftのHololens 2.0の心臓部のシリコンチップについての発表である。AR用のHololensは3Dグラフィックスと説明などのテキストなどを重ね、顔を動きに合わせてグラフィックスを同期させて動かす必要があり、Hololens 2.0には高度なコントロールが詰め込まれている筈である。さらに、低電力性やVRで酔わないためには高いフレームレートが必要となる。これらをどのようなチップで可能にしているのか興味深い。

マイナビニュース

「シリコンバレー」をもっと詳しく

「シリコンバレー」のニュース

トピックス

BIGLOBE
トップへ