Google đã phát triển một số chatbot AI từ vài năm trước, nhưng chỉ thử nghiệm nội bộ và để lỡ cơ hội khi OpenAI nhanh chân công bố ChatGPT. Cách đây hai năm, một số nhà nghiên cứu Google thúc giục lãnh đạo cho phát hành "siêu chatbot" được xây dựng trên công nghệ AI thế hệ mới có tên LaMDA - viết tắt của Mô hình ngôn ngữ cho ứng dụng đối thoại. Nó được đánh giá mạnh mẽ hơn bất kỳ công cụ chatbot nào khi đó. Chương trình có dạng đàm thoại hai chiều, có thể bàn luận với người dùng về triết học, chương trình giải trí hay chơi chữ một cách ngẫu hứng. Sự kiện Google AI@ tháng 11/2022 tại Manhattan. Ảnh: AP Daniel De Freitas và Noam Shazeer, hai nhà nghiên cứu AI của Google, khẳng định chatbot sử dụng LaMDA sẽ cách mạng hóa và thay đổi thói quen tìm kiếm trên Internet cũng như cách tương tác với máy tính. Cả hai đề nghị ban lãnh đạo mở quyền truy cập cho các nhà phát triển bên thứ ba, sớm tích hợp vào trợ lý ảo Google Assistant và phát hành bản thử nghiệm công khai. Điều đó không xảy ra. Theo WSJ, cả hai bị đội ngũ lãnh đạo từ chối nhiều lần. Một lý do được đưa ra là chương trình không đáp ứng tiêu chuẩn về an toàn và công bằng của một hệ thống AI. Cả hai chuyên gia đã nghỉ việc năm 2021, sau đó lập công ty riêng để nghiên cứu công nghệ tương tự. Họ cho biết điều hối tiếc nhất là không thể phát hành chatbot ra công chúng. Giờ đây, Google trở thành kẻ bám đuổi khi ChatGPT gây sốt. Microsoft, công ty đầu tư tiền tỷ vào OpenAI, cũng công bố Bing AI dựa trên ChatGPT. Google bị đẩy vào thế bị động và vội vã giới thiệu công cụ tương tự có tên Bard, dù chưa hoàn thiện và trả lời sai ngay trong ngày ra mắt. Là công ty tiên phong, Google luôn có cách tiếp cận thận trọng. Điều này được cho là đã hình thành sau nhiều năm nghiên cứu và đánh giá mức độ thiên kiến, sai lệch của AI. Năm ngoái, hãng thậm chí sa thải kỹ sư Blake Lemoine sau khi ông cho rằng AI có tri giác. Hồi tháng 1, Jeff Dean, Giám đốc phụ trách AI của Google, đã nói với nhân viên trong cuộc họp nội bộ rằng hãng sẽ đối mặt "nhiều rủi ro về uy tín" nên phải hành động cẩn trọng hơn "so với một công ty khởi nghiệp nhỏ". "Google đang vật lộn để tìm ra sự cân bằng giữa mức độ rủi ro mà họ phải chấp nhận với việc duy trì vị thế dẫn đầu trên thế giới", Gaurav Nemade, cựu giám đốc sản phẩm của Google và từng làm việc ở mảng chatbot đến năm 2020, nói với WSJ. Hành trình tạo chatbot AI của Google Tham vọng xây dựng chatbot thông minh của Google bắt đầu từ 2013, khi người đồng sáng lập Larry Page thuê Ray Kurzweil - nhà khoa học máy tính nổi tiếng với ý tưởng rằng một ngày nào đó, máy móc sẽ vượt qua trí thông minh của con người và gọi nó là "điểm kỳ dị công nghệ". Kurzweil đã bắt tay phát triển nhiều chatbot, trong đó có Danielle, tên gọi dựa trên cuốn tiểu thuyết ông đang viết hồi đó. Google cũng mua lại DeepMind, công ty có mục tiêu tạo ra trí thông minh nhân tạo hoặc phần mềm "có khả năng phản ánh tinh thần của con người". DeepMind đã phát triển một số AI nổi tiếng như AlphaFold giải mã thành công cấu trúc protein, hay đào tạo AI đá bóng. Tuy nhiên, hàng loạt áp lực khiến Google không thực hiện dự án của mình đến nơi chốn. Năm 2018, hãng cam kết không sử dụng AI trong vũ khí quân sự, sau phản ứng của nhân viên về hợp đồng Project Maven với Bộ Quốc phòng Mỹ, liên quan đến việc AI có thể tự động xác định và theo dõi mục tiêu như drone, ôtô. CEO Sundar Pichai sau đó công bố bộ quy tắc AI nhằm hạn chế sự phổ biến của các công nghệ có tồn tại những thành kiến không công bằng, phân biệt đối xử và nhiều hành động nguy hiểm khác. Khi hầu hết dự án AI của Google phải dừng hoặc nghiên cứu trong bí mật, De Freitas, kỹ sư gốc Brazil làm tại YouTube, đã bắt đầu một dự án phụ về AI. Ông xây dựng chatbot Meena, có thể bắt chước cuộc trò chuyện như con người và có cách giao tiếp tự nhiên hơn bất kỳ chatbot nào khác. Trong nhiều năm, Meena không được công khai. Bên trong Google, nhiều nhân viên cũng lo ngại sự nguy hiểm của nó, nhất là sau khi Microsoft phải xóa sổ chatbot Tay vì bị người dùng dạy cách chửi bậy, phân biệt chủng tộc. Meena chỉ lộ diện vào năm 2020. Khi đó, Google cho biết chatbot đã được đào tạo từ 40 tỷ từ vựng, chủ yếu từ các cuộc trò chuyện thu thập trên mạng xã hội và trong phạm vi được phép. Nhóm phát triển xin phép ban lãnh đạo công khai chatbot, nhưng lại tiếp tục bị từ chối. Tuy nhiên, nhóm không bỏ cuộc. Cùng năm 2020, nhóm nghiên cứu AI Google Brain tiếp nhận dự án và đổi tên thành LaMDA. Đội ngũ này cũng hoàn thiện Transformer - kiến trúc AI được đào tạo dựa trên cách tự giám sát được Google tạo ra từ 2017 và được xem là nền tảng đằng sau những chatbot như ChatGPT. Dù vậy, quá trình phát triển chatbot AI gặp phải một số vấn đề khi nhân viên cũ kiện ngược công ty. Tháng 5/2021, Jeff Dean, người đứng đầu bộ phận nghiên cứu của Google, khẳng định công ty vẫn đầu tư phát triển AI có trách nhiệm và sẽ tăng gấp đôi quy mô của nhóm đạo đức AI. Sự thận trọng thành chậm chân LaMDA được đánh giá là mô hình ngôn ngữ hoàn thiện nhất và là "linh hồn" của nhiều AI do Google phát triển, trong đó có Bard. Theo Blake Lemoine, công ty đã cân nhắc phát hành một thử nghiệm chatbot trên công nghệ này vào tháng 5/2022. Tuy nhiên, việc ông tuyên bố AI này có tri giác khiến tranh cãi nội bộ diễn ra. Sau đó, ông bị cho thôi việc. Hai chuyên gia Freitas và Shazeer cũng muốn đưa LaMDA vào trợ lý ảo Google Assistant từ 2020 vì nhận thấy tiềm năng lớn. Assistant khi đó có hơn 500 triệu người dùng từ smartphone, máy tính bảng đến loa thông minh, TV. Họ đã thử nghiệm nội bộ và dự định tung bản demo công khai. Dù vậy, một lần nữa, các giám đốc Google ngăn cản. "Nó đã gây xáo trộn trong Google", Shazeer nói. "Cuối cùng, chúng tôi quyết định rằng có lẽ mình sẽ gặp may mắn hơn khi nghiên cứu những công nghệ này với vai trò một công ty khởi nghiệp". Quá thận trọng với chatbot AI nhiều năm, nhưng Google lại vội giới thiệu Bard khi chưa hoàn thiện. Tuy nhiên, công cụ này mới đang được thử nghiệm nội bộ, chưa được công khai cho người dùng. Theo Elizabeth Reid, Phó chủ tịch phụ trách tìm kiếm của Google, độ chính xác của chatbot vẫn là vấn đề lớn. Những mô hình dựa trên AI như vậy có xu hướng tạo ra phản ứng lạ khi chúng không có đủ thông tin, điều mà các nhà nghiên cứu gọi là "ảo giác". Trong một số trường hợp, phần mềm được xây dựng trên công nghệ LaMDA đã phản hồi bằng thông tin hư cấu hoặc lạc đề. "Giống như chúng ta đang nói chuyện với một đứa trẻ", bà Reid nói. "Nếu đứa trẻ nghĩ mình cần giải đáp câu hỏi nhưng lại không có gì trong đầu, chúng sẽ bịa ra một câu trả lời nghe có vẻ hợp lý". Prabhakar Raghavan, đứng đầu mảng Google Search, cũng cảnh báo các chatbot AI hiện tại có thể tạo ra cạm bẫy về thông tin với người dùng."Loại trí tuệ nhân tạo mọi người đang đang thảo luận đôi khi có thể dẫn đến một thứ gọi là ảo giác. Điều này thể hiện qua việc máy móc cung cấp câu trả lời thuyết phục, nhưng hoàn toàn bịa đặt", ông nói hồi đầu tháng 2. Raghavan cho biết vào lúc này, Google sẽ vẫn tiếp tục hoàn thiện chatbot mới. "Chúng tôi sẽ cẩn thận trong việc giải quyết các mối quan tâm về hệ sinh thái - thứ mà chúng tôi dự định tập trung nhiều nhất", ông cho hay. Bảo Lâm (theo WSJ) Mua hàng tại Tin Học Như ÝTheo Trang Công Nghệ