'Nút thắt cổ chai' đe dọa Google, Meta

Discussion in 'Tin tức - Đồ chơi số' started by bboy_nonoyes, Jun 9, 2024.

  1. bboy_nonoyes

    bboy_nonoyes Administrator Staff Member

    (Lượt xem: 101)

    Dữ liệu văn bản do con người tạo ra ngày càng cạn kiệt, trở thành mối đe dọa nghiêm trọng với các công ty đang chạy đua AI như Google, Meta.


    Fortune dẫn kết quả của nhóm nghiên cứu Epoch công bố ngày 6/6 rằng đến năm 2026-2032, các công ty sẽ hết dữ liệu để đào tạo AI. AI tạo sinh (GenAI) đang được ví như "cơn sốt vàng", việc chạy đua khai thác khiến nguồn dữ liệu do con người tạo ra, vốn hữu hạn, lại càng cạn kiệt.

    Trong ngắn hạn, các công ty như OpenAIGoogle đang tìm mọi cách để bảo vệ nguồn tài nguyên của mình, thậm chí trả tiền để tiếp cận dữ liệu chất lượng cao cho đào tạo AI.

    [​IMG]

    CEO OpenAI Sam Altman (trái) và CEO Microsoft Satya Nadella tại một sự kiện của OpenAI hồi tháng 6/2023. Ảnh: CNBC


    Tamay Besiroglu, tác giả chính của nghiên cứu, lưu ý về lâu dài sẽ không đủ các bài viết, blog, tin tức và bình luận mới trên mạng xã hội để duy trì quỹ đạo phát triển hiện tại của AI. Khi một số thông tin liên quan đến email, văn bản được dán nhãn nhạy cảm hoặc riêng tư, "nút thắt cổ chai" của ngành sẽ hình thành.

    "Nếu gặp hạn chế về lượng dữ liệu, bạn sẽ không thể mở rộng các mô hình AI một cách hiệu quả", Besiroglu nhận định. Một số nghiên cứu chỉ ra dữ liệu chất lượng cao dưới dạng văn bản sẽ không đủ để "nuôi" cỗ máy AI vào 2026. Khi đó, các công ty như OpenAI, Google, Meta, Microsoft sẽ gặp thách thức lớn trong cuộc đua AI.

    Tuy nhiên, không phải ai cũng đồng ý với "nút thắt cổ chai" của ngành AI. Nicolas Papernot, phó giáo sư về kỹ thuật máy tính tại Đại học Toronto, nói: "Tôi nghĩ điều quan trọng cần lưu ý là chúng ta không nhất thiết phải đào tạo các mô hình ngày càng lớn hơn. Chúng ta có thể xây dựng những hệ thống AI chuyên cho các nhiệm vụ cụ thể".

    Nhưng Papernot cũng chung lo ngại về việc đào tạo nhiều hệ thống AI trên cùng một kho dữ liệu có thể khiến hiệu suất mô hình bị giảm nghiêm trọng, dẫn đến "sụp đổ mô hình". Hơn nữa, việc đào tạo AI dựa trên chính dữ liệu do chúng tạo ra có thể khoét sâu vào những sai lầm của trí tuệ nhân tạo liên quan đến phân biệt chủng tộc, sai lệch thông tin.

    Selena Deckelmann, Giám đốc sản phẩm và công nghệ của Wikipedia, nói: "Có một điểm thú vị là con người đang tạo ra một dạng tài nguyên mới - dữ liệu. Trong khi một số người tìm cách loại bỏ dữ liệu của mình khỏi chương trình đào tạo AI, tại Wikipedia chúng tôi đặt ra một số hạn chế đối với cách các công ty sử dụng nội dung do con người biên soạn. Đây sẽ là một trong những cách thức để giữ các tình nguyện viên tiếp tục đóng bài viết chất lượng cao". Deckelmann lưu ý điều các công ty AI nên lo lắng lúc này là làm sao để nội dung do con người tạo ra tiếp tục tồn tại và họ có quyền truy cập kho dữ liệu đó.

    Tuy nhiên, nhóm nghiên cứu Epoch cho rằng việc các công ty trả tiền cho hàng triệu người tạo văn bản không chắc sẽ giúp tiết kiệm tiền. OpenAI đang có cách tiếp cận mới, tại một sự kiện của Liên Hợp Quốc vào tháng trước, CEO Sam Altman tuyên bố dùng dữ liệu tổng hợp để đào tạo AI. Dữ liệu tổng hợp ở đây được hiểu là cả nội dung do con người lẫn AI viết ra, trong đó có cả kho nội dung kém chất lượng.

    Altman không phủ nhận điều này. Ông cho rằng các công ty như OpenAI buộc phải cân nhắc về việc phụ thuộc quá nhiều vào dữ liệu, thay vì tìm cách cải thiện mô hình AI. Ông nói: "Sẽ có những điều rất kỳ lại xảy ra nếu đào tạo mô hình AI dựa trên kho dữ liệu tổng hợp. Không chắc chắn sáng kiến này có đem lại hiệu quả tốt".

    Khương Nha


    Adblock test (Why?)
    Theo Trang Công Nghệ
     
  2. Facebook comment - 'Nút thắt cổ chai' đe dọa Google, Meta

Share This Page