Đại học Hoa Sen

Ứng dụng Hadoop trong lưu trữ và xử lý Big Data

Ứng dụng Hadoop trong lưu trữ và xử lý Big Data

Vào ngày 07/7/2017, tại phòng SZ609, Tòa nhà Soongsil,  CVPM Quang Trung, Q. 12, TP. HCM, chuyên gia Sandeep Agarwal (Học viện NIIT Ấn Độ) đã trình bày những thông tin rất hữu ích liên quan đến Big Data trong nội dung hội thảo “Developing Competency In Big Data” (Triển khai Big Data, bắt đầu như thế nào?) với sự tham gia của đông đảo các cá nhân làm việc trong lĩnh vực CNTT đến từ các đơn vị: Global Cyber Soft Việt Nam, AgriConnect, TMA Solution, LogiGear Việt Nam, Lạc Việt, Công ty phần mềm Junsky, ĐH Giao thông vận tải…

Hoi thao Big Data cho Doanh nghiep ngay 7/7/2017

Tham dự hội thảo còn có ông Pavitra Mukherjee – Giám đốc NIIT khu vực Đông Dương, người có hơn 10 năm làm việc tại Việt Nam và là thành viên đồng hành cùng sự phát triển của các chương trình đào tạo công nghệ thông tin do NIIT cung cấp cho các đối tác giáo dục, trong đó có trường ĐH Hoa Sen. Chia sẻ tại hội thảo lần này, ông Pavitra cho rằng Việt Nam có nhiều tiềm lực để phát triển trong tương lai và để làm được điều này cần thúc đẩy các yếu tố như: đào tạo, con người, công nghệ, kỹ thuật… Trong đó, việc đón đầu những xu hướng công nghệ mới như Big Data là một điều vô cùng cần thiết. Đồng ý kiến với ông Pavitra, Chuyên gia Sandeep với hơn 18 năm kinh nghiệm trong lĩnh vực Hệ thống thông tin cũng như hơn 10 năm kinh nghiệm về Khai thác dữ liệu và Kinh doanh thông minh, cho rằng Big Data thực sự là một “câu chuyện thời thượng” của giới công nghệ và các lĩnh vực liên quan trong thời đại số hóa hiện nay.

Tại hội thảo lần này, ngoài việc giới thiệu tổng quan về Big Data, ông Sandeep dành thời lượng lớn để trình bày về Hadoop – nền tảng cơ bản để lưu trữ và xử lý dữ liệu đa dạng về cấu trúc, tiết kiệm tối đa thời gian và chi phí nhưng đem lại những kết quả nhanh chóng cho người dùng. Theo đó, Hadoop gồm hai phần chính là HDFS – Hadoop Distributed File System (hệ lưu trữ dữ liệu phân tán) và MapReduce (xử lý dữ liệu). Để minh họa cho những ứng dụng của Hadoop, ông Sandeep đã trình bày demo, nhiều ví dụ cụ thể về Hadoop, cách thức Hadoop xử lý dữ liệu…

Hội thảo nằm trong chuỗi sự kiện do trường ĐH Hoa Sen phối hợp cùng Công viên Phần mềm Quang Trung và Học viện NIIT Ấn Độ tổ chức nhằm mục đích chia sẻ và trao đổi thông tin liên quan đến Big Data và hệ sinh thái Hadoop. Ngoài các hội thảo chuyên đề, ĐH Hoa Sen còn tổ chức các lớp đào tạo ngắn hạn (thời lượng 60 giờ) dành cho doanh nghiệp nhằm cung cấp những kiến thức và kỹ năng cần thiết về các framework như Hadoop, HBase, Hive, Spark, Pig, Sqoop… Là thành viên từng tham gia khóa học về Big Data khai giảng vào ngày 02/7/2017 vừa qua, chị Hồ Thụy Hương Thủy chia sẻ: “Trước khi đến với khóa học, cũng nghe nhiều về Big Data, nhưng cũng chưa thực sự hình dung được nó có vai trò như thế nào. Sau khóa học thì thấy Big Data đóng vai trò quan trọng trong tiến trình phát triển ngành CNTT và phân tích dữ liệu. Chúng ta đang ở thời đại mà khối lượng dữ liệu hằng ngày có thể nói là khổng lồ, vì thế, làm sao để khai thác hiệu quả khối lượng dữ liệu đó để đưa ra các thông tin hữu ích là một vấn đề cần suy nghĩ. Khái niệm Big Data cũng đem đến cho chúng ta cơ hội thoát khỏi việc lưu trữ và khai thác dữ liệu theo cách truyền thống.”

Khóa học tiếp theo sẽ được khai giảng vào ngày 24/7/2017, chi tiết về chương trình vui lòng truy cập website www.upskill.vn hoặc liên hệ:

  • Ms. Huỳnh Thị Hương Giang
    • ĐT: 0918 674 603
    • Email: giang.huynhthihuong@hoasen.edu.vn

Danh mục liên quan

Sự kiện
Facebook Youtube Tiktok Zalo