[ຈີນ, Shenzhen, ກໍລະກົດ 14, 2023] ມື້ນີ້, Huawei ໄດ້ເປີດເຜີຍໂຊລູຊັ່ນການເກັບຂໍ້ມູນ AI ໃໝ່ຂອງຕົນສຳລັບຍຸກຂອງແບບຈຳລອງຂະໜາດໃຫຍ່, ສະໜອງໂຊລູຊັນການເກັບຮັກສາທີ່ດີທີ່ສຸດສຳລັບການຝຶກອົບຮົມແບບຈຳລອງພື້ນຖານ, ການຝຶກອົບຮົມແບບຈຳລອງສະເພາະອຸດສາຫະກຳ ແລະ ການສະຫຼຸບໃນສະຖານະການແບ່ງສ່ວນ, ດັ່ງນັ້ນ. ເປີດເຜີຍຄວາມສາມາດ AI ໃໝ່.
ໃນການພັດທະນາ ແລະ ປະຕິບັດຕົວແບບຂະໜາດໃຫຍ່, ບັນດາວິສາຫະກິດປະເຊີນໜ້າກັບສິ່ງທ້າທາຍໃຫຍ່ 4 ຂໍ້ຄື:
ກ່ອນອື່ນ ໝົດ, ເວລາທີ່ ຈຳ ເປັນໃນການກະກຽມຂໍ້ມູນແມ່ນຍາວນານ, ແຫຼ່ງຂໍ້ມູນກະແຈກກະຈາຍ, ແລະການລວບລວມແມ່ນຊ້າ, ໃຊ້ເວລາປະມານ 10 ມື້ສໍາລັບການປຸງແຕ່ງຂໍ້ມູນຫຼາຍຮ້ອຍ terabytes. ອັນທີສອງ, ສໍາລັບຮູບແບບຂະຫນາດໃຫຍ່ຫຼາຍຮູບແບບທີ່ມີຊຸດຂໍ້ມູນຂໍ້ຄວາມແລະຮູບພາບຂະຫນາດໃຫຍ່, ຄວາມໄວການໂຫຼດໃນປະຈຸບັນສໍາລັບໄຟລ໌ຂະຫນາດນ້ອຍຂະຫນາດໃຫຍ່ແມ່ນຫນ້ອຍກວ່າ 100MB / ວິນາທີ, ເຮັດໃຫ້ປະສິດທິພາບຕ່ໍາສໍາລັບການໂຫຼດຊຸດການຝຶກອົບຮົມ. ອັນທີສາມ, ການປັບຕົວພາລາມິເຕີເລື້ອຍໆສໍາລັບຕົວແບບຂະຫນາດໃຫຍ່, ພ້ອມກັບເວທີການຝຶກອົບຮົມທີ່ບໍ່ຫມັ້ນຄົງ, ເຮັດໃຫ້ເກີດການຂັດຂວາງການຝຶກອົບຮົມປະມານທຸກໆ 2 ມື້, ຈໍາເປັນຕ້ອງມີກົນໄກ Checkpoint ເພື່ອສືບຕໍ່ການຝຶກອົບຮົມ, ດ້ວຍການຟື້ນຕົວໃຊ້ເວລາຫຼາຍກວ່າຫນຶ່ງມື້. ສຸດທ້າຍ, ຂອບເຂດການປະຕິບັດສູງສໍາລັບຕົວແບບຂະຫນາດໃຫຍ່, ການຕິດຕັ້ງລະບົບທີ່ສັບສົນ, ສິ່ງທ້າທາຍໃນການຈັດຕາຕະລາງຊັບພະຍາກອນ, ແລະການນໍາໃຊ້ຊັບພະຍາກອນ GPU ມັກຈະຕ່ໍາກວ່າ 40%.
Huawei ກໍາລັງສອດຄ່ອງກັບແນວໂນ້ມຂອງການພັດທະນາ AI ໃນຍຸກຂອງຮູບແບບຂະຫນາດໃຫຍ່, ສະເຫນີການແກ້ໄຂທີ່ເຫມາະສົມສໍາລັບອຸດສາຫະກໍາແລະສະຖານະການທີ່ແຕກຕ່າງກັນ. ມັນແນະນຳ OceanStor A310 Deep Learning Data Lake Storage ແລະ FusionCube A3000 Training/Inference Super-Converged Appliance. OceanStor A310 Deep Learning Data Lake Storage ເປົ້າໝາຍທັງພື້ນຖານ ແລະ ລະດັບອຸດສາຫະກໍາ ສະຖານະການ lake data lake ຂະຫນາດໃຫຍ່, ບັນລຸການຄຸ້ມຄອງຂໍ້ມູນ AI ທີ່ສົມບູນແບບຈາກການລວບລວມຂໍ້ມູນ, preprocessing ກັບການຝຶກອົບຮົມແບບຈໍາລອງ, ແລະຄໍາຮ້ອງສະຫມັກ inference. OceanStor A310, ໃນ rack 5U ດຽວ, ສະຫນັບສະຫນູນແບນວິດ 400GB/s ຊັ້ນນໍາໃນອຸດສາຫະກໍາແລະສູງເຖິງ 12 ລ້ານ IOPS, ມີຄວາມສາມາດຂະຫຍາຍເສັ້ນໄດ້ເຖິງ 4096 nodes, ເຮັດໃຫ້ການສື່ສານຂ້າມໂປໂຕຄອນທີ່ບໍ່ມີຮອຍຕໍ່. Global File System (GFS) ອຳນວຍຄວາມສະດວກໃຫ້ແກ່ການຖັກແສ່ວຂໍ້ມູນອັດສະລິຍະໃນທົ່ວພາກພື້ນ, ປັບປຸງຂະບວນການລວມຂໍ້ມູນ. Near-storage computing realprocessing near-data preprocessing, ການຫຼຸດຜ່ອນການເຄື່ອນໄຫວຂໍ້ມູນ, ແລະປັບປຸງປະສິດທິພາບ preprocessing ໂດຍ 30%.
FusionCube A3000 Training/Inference Super-Converged Appliance, ອອກແບບມາເພື່ອການເຝິກອົບຮົມແບບຈຳລອງຂະໜາດໃຫຍ່ລະດັບອຸດສາຫະກຳ/ສະຖານະການການສະຫຼຸບ, ຕອບສະໜອງກັບແອັບພລິເຄຊັ່ນທີ່ກ່ຽວຂ້ອງກັບຕົວແບບທີ່ມີພາລາມິເຕີນັບພັນຕື້. ມັນລວມເອົາໂຫນດການເກັບຮັກສາທີ່ມີປະສິດທິພາບສູງ OceanStor A300, ໂຫມດການຝຶກອົບຮົມ / ການສະຫຼຸບ, ອຸປະກອນສະຫຼັບ, ຊອບແວແພລະຕະຟອມ AI, ແລະຊອບແວການຈັດການແລະການດໍາເນີນງານ, ສະຫນອງຄູ່ຮ່ວມງານແບບຈໍາລອງຂະຫນາດໃຫຍ່ທີ່ມີປະສົບການການຕິດຕັ້ງ plug-and-play ສໍາລັບການຈັດສົ່ງແບບຢຸດດຽວ. ພ້ອມນຳໃຊ້, ມັນສາມາດນຳໃຊ້ໄດ້ພາຍໃນ 2 ຊົ່ວໂມງ. ທັງສອງການຝຶກອົບຮົມ / inference ແລະ nodes ການເກັບຮັກສາສາມາດເປັນເອກະລາດແລະອອກຕາມລວງນອນເພື່ອໃຫ້ກົງກັບຄວາມຕ້ອງການຂອງຂະຫນາດຮູບແບບຕ່າງໆ. ໃນຂະນະດຽວກັນ, FusionCube A3000 ນໍາໃຊ້ບັນຈຸທີ່ມີປະສິດຕິພາບສູງເພື່ອເຮັດໃຫ້ການຝຶກອົບຮົມແບບຈໍາລອງຫຼາຍຮູບແບບແລະວຽກງານ inference ເພື່ອແບ່ງປັນ GPUs, ເພີ່ມການນໍາໃຊ້ຊັບພະຍາກອນຈາກ 40% ເປັນຫຼາຍກວ່າ 70%. FusionCube A3000 ຮອງຮັບສອງຮູບແບບທຸລະກິດທີ່ປ່ຽນແປງໄດ້: Huawei Ascend One-Stop Solution ແລະຄູ່ຮ່ວມງານພາກສ່ວນທີສາມການແກ້ໄຂແບບດຽວກັບຄອມພິວເຕີເປີດ, ເຄືອຂ່າຍ, ແລະຊອບແວແພລດຟອມ AI.
ທ່ານ Zhou Yuefeng ປະທານສາຍຜະລິດຕະພັນການເກັບຂໍ້ມູນຂອງ Huawei ກ່າວວ່າ “ໃນຍຸກຂອງຕົວແບບຂະໜາດໃຫຍ່, ຂໍ້ມູນຈະກຳນົດຄວາມສູງຂອງ AI Intelligence. ໃນຖານະເປັນຜູ້ໃຫ້ບໍລິການຂໍ້ມູນ, ການເກັບຮັກສາຂໍ້ມູນກາຍເປັນໂຄງສ້າງພື້ນຖານທີ່ສໍາຄັນສໍາລັບ AI ແບບຂະຫນາດໃຫຍ່. ການເກັບຮັກສາຂໍ້ມູນ Huawei ຈະສືບຕໍ່ປະດິດສ້າງ, ສະຫນອງການແກ້ໄຂທີ່ຫຼາກຫຼາຍແລະຜະລິດຕະພັນສໍາລັບຍຸກຂອງ AI ແບບຂະຫນາດໃຫຍ່, ຮ່ວມມືກັບຄູ່ຮ່ວມງານເພື່ອຊຸກຍູ້ການສ້າງຄວາມເຂັ້ມແຂງຂອງ AI ໃນທົ່ວອຸດສາຫະກໍາທີ່ກວ້າງຂວາງ."
ເວລາປະກາດ: ສິງຫາ-01-2023