Episode
Ilmuwan LHC membuat prototipe solusi analisis data di Azure Pembelajaran Mesin
Large Hadron Collider di CERN adalah mesin fisika terbesar yang pernah dibangun, dan eksperimen menggunakan collider menghasilkan hampir exabyte (satu miliar gigabyte) data dalam pencarian untuk memahami misteri alam semesta. Pembelajaran mesin pada jaringan berukuran global dan kecepatan FPGA memiliki cakupan untuk meningkatkan analisis data untuk fisika partikel. Ilmuwan LHC dari Fermilab, CERN, MIT, University of Washington dan institusi lain bekerja sama dengan Microsoft untuk membuat prototipe solusi untuk tantangan data LHC zettabyte mereka.
Large Hadron Collider di CERN adalah mesin fisika terbesar yang pernah dibangun, dan eksperimen menggunakan collider menghasilkan hampir exabyte (satu miliar gigabyte) data dalam pencarian untuk memahami misteri alam semesta. Pembelajaran mesin pada jaringan berukuran global dan kecepatan FPGA memiliki cakupan untuk meningkatkan analisis data untuk fisika partikel. Ilmuwan LHC dari Fermilab, CERN, MIT, University of Washington dan institusi lain bekerja sama dengan Microsoft untuk membuat prototipe solusi untuk tantangan data LHC zettabyte mereka.
Memiliki umpan balik? Kirimkan masalah di sini.