Động thái mới gây bất an của OpenAI

Discussion in 'Tin tức - Đồ chơi số' started by bboy_nonoyes, Jun 17, 2024.

  1. bboy_nonoyes

    bboy_nonoyes Administrator Staff Member

    (Lượt xem: 64)

    OpenAI đưa cựu giám đốc Cơ quan An ninh quốc gia Mỹ (NSA) vào hội đồng quản trị, gây lo ngại AI của công ty thành "tai mắt" giám sát.


    Theo Business Insider, việc bổ sung Paul Nakasone vào ban giám đốc của OpenAI là động thái "gây ngạc nhiên". Ngoài việc từng là cựu giám đốc NSA, Nakasone còn có thời gian đứng đầu bộ phận an ninh mạng của Bộ Quốc phòng Mỹ.

    [​IMG]

    Sam Altman, đồng sáng lập và CEO OpenAI. Ảnh: TechCrunch


    OpenAI cho biết quyết định mời Nakasone thể hiện cam kết về an toàn và bảo mật của công ty, đồng thời nhấn mạnh tầm quan trọng của an ninh mạng khi AI tiếp tục phát triển. Nakasone cũng khẳng định muốn đóng góp vào những nỗ lực của OpenAI nhằm đảm bảo trí tuệ nhân tạo hoạt động an toàn, mang lại lợi ích cho mọi người trên khắp thế giới.

    Tuy nhiên, các nhà phê bình lo ngại Nakasone có thể đại diện cho một điều khác: sự giám sát. "Đừng bao giờ tin tưởng OpenAI hoặc các sản phẩm của công ty này nữa. Việc thuê Nakasone là sự che đậy và sự phản bội có tính toán đối với quyền của mọi người trên Trái Đất", Edward Snowden viết trên X ngày 15/6. Ông là cựu nhân viên CIA và từng gây chấn động dư luận khi tiết lộ hàng loạt thông tin NSA bí mật do thám, nghe lén, theo dõi email, hoạt động Internet của các lãnh đạo, người dân tại Mỹ, châu Âu và châu Á.

    Trong một bình luận khác trên X, Snowden cho biết "sự giao thoa của AI với đại dương dữ liệu giám sát hàng loạt tích lũy trong hai thập kỷ qua sẽ đặt những quyền lực thực sự khủng khiếp và không thể đong đếm được vào tay một số ít người".

    Trong khi đó, Thượng nghị sĩ Mark Warner của đảng Dân chủ và đứng đầu Ủy ban Tình báo Thượng viện Mỹ mô tả việc OpenAI tuyển dụng Nakasone là "thành tựu lớn" nhưng cũng gây rủi ro. Nói với Axios, Warner cho rằng chuyên môn của Nakasone có thể cần thiết tại OpenAI, nhưng lo ngại các vấn đề bảo mật có thể dẫn đến các cuộc tấn công sau này.

    Hồi tháng 4, OpenAI sa thải thành viên hội đồng quản trị Leopold Aschenbrenner sau khi ông này tung ra một bản ghi nhớ nêu chi tiết về một "sự cố bảo mật lớn" bên trong công ty. Ông mô tả an ninh ở đây "không đủ mạnh" để bảo vệ khỏi hành vi trộm cắp của các tác nhân nước ngoài.

    Sau đó, OpenAI cũng bất ngờ giải tán nhóm Superalignment, chuyên tập trung phát triển hệ thống AI phục vụ lợi ích loài người. Việc giải tán được thực hiện ngay sau khi Ilya Sutskever và Jan Leike, hai người đóng vai trò quan trọng vào các mô hình AI của OpenAI, rời công ty. Động thái này được cho là khiến nhân viên hoang mang, buộc CEO Sam Altman phải nhiều lần trấn an.

    Leike cho biết ông rời đi vì "đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian khá lâu". Sutskever, nhà khoa học trưởng của OpenAI và cũng là người thành lập Superalignment tỏ ra kín đáo hơn, khi không đề cập nhiều đến lý do từ chức. Ông được cho là người đứng sau cuộc lật đổ Altman nhưng không thành công vào tháng 11 năm ngoái.

    OpenAI chưa đưa ra bình luận.

    Bảo Lâm

    • Nhóm nhân viên OpenAI, Google: 'Các công ty đang che giấu về hiểm họa AI'
    • Sam Altman thừa nhận OpenAI không hiểu cách GPT hoạt động
    • Sam Altman đang bị coi là 'kẻ phản diện' ở Thung lũng Silicon
    • Nghi vấn 'bịt miệng nhân viên cũ' của OpenAI
    • Sự rối ren tại công ty đứng sau ChatGPT

    Adblock test (Why?)
    Theo Trang Công Nghệ
     
  2. Facebook comment - Động thái mới gây bất an của OpenAI

Share This Page