Bạn còn nhớ những ngày đầu OpenAI ra mắt không? Đó không chỉ là sự xuất hiện của một phòng thí nghiệm AI. Đó là sự ra đời của một lời hứa. Một lời hứa về một tương lai nơi trí tuệ nhân tạo (AI) được phát triển một cách an toàn, có trách nhiệm và trên hết là “phục vụ tất cả nhân loại”. Lời hứa đó được bảo chứng bằng một cấu trúc phi lợi nhuận, một tuyên ngôn cao cả giữa lòng Thung lũng Silicon vốn chỉ tôn thờ tăng trưởng và lợi nhuận.
Thế nhưng, chính những người từng góp những viên gạch đầu tiên xây nên lời hứa đó giờ đây lại đang lên tiếng. Họ không nói về một lỗi kỹ thuật hay một bản cập nhật chậm trễ. Họ nói về một “sự phản bội sâu sắc”. Họ vẽ ra một bức tranh nơi sứ mệnh ban đầu đang bị xé bỏ, nhường chỗ cho những con số khổng lồ và tham vọng không giới hạn.
Điều gì đang thực sự xảy ra bên trong phòng thí nghiệm AI quan trọng nhất thế giới?
Bóc Tách Những Rạn Nứt
1. Lời Hứa Bị Xé Bỏ: Giới Hạn Lợi Nhuận Đang Lung Lay
Nền tảng của lời hứa nguyên thủy mang tên OpenAI nằm ở một cơ chế rất độc đáo: “capped-profit” (lợi nhuận giới hạn). Về cơ bản, các nhà đầu tư rót tiền vào OpenAI đều biết rằng khoản lợi nhuận họ có thể thu về sẽ có một mức trần. Phần lợi nhuận vượt ngưỡng đó sẽ được quay trở lại phục vụ sứ mệnh phi lợi nhuận của tổ chức mẹ. Đây là một sự đảm bảo bằng cấu trúc rằng nếu OpenAI tạo ra được AI thay đổi thế giới, lợi ích sẽ thuộc về cộng đồng, không phải một nhóm nhỏ tỷ phú.
Nhưng giờ đây, cấu trúc đó đang đứng trước nguy cơ bị xóa sổ. Theo các cựu nhân viên, áp lực từ các nhà đầu tư lớn muốn có lợi nhuận không giới hạn đang đẩy công ty đến chỗ từ bỏ cam kết cốt lõi của mình.
Mình tin rằng đây là điểm khởi đầu của mọi rạn nứt. Khi kim chỉ nam tài chính thay đổi từ “phục vụ nhân loại” sang “tối đa hóa cho nhà đầu tư”, mọi quyết định khác về sản phẩm, đạo đức và an toàn cũng sẽ bị bẻ cong theo. Đồng tiền có một trọng lực vô hình, và nó đang kéo OpenAI đi chệch khỏi quỹ đạo ban đầu.
2. Sam Altman: Nhà Lãnh Đạo Thiên Tài Hay Kẻ Gây Rối Đầy Rủi Ro?
Khi khủng hoảng nổ ra, nhiều ngón tay đã chỉ về một người: CEO Sam Altman. Những lo ngại không phải là mới. Ngay cả Ilya Sutskever, nhà đồng sáng lập và một trong những bộ óc AI hàng đầu thế giới, người từng sát cánh bên Altman, cũng đi đến kết luận lạnh lùng: “Tôi không nghĩ Sam là người nên có ngón tay trên nút bấm AGI”. Ông cho rằng Altman không trung thực và tạo ra sự hỗn loạn – một sự kết hợp đáng sợ.
Những tiếng nói khác cũng đồng tình. Cựu CTO Mira Murati cảm thấy “không thoải mái” khi được Altman dẫn dắt đến AGI. Cựu thành viên hội đồng quản trị Helen Toner và Tasha McCauley thì cảnh báo về hành vi thao túng, điều không thể chấp nhận được khi nói về an toàn của một công nghệ mang tính sống còn.
Bạn sẽ cảm thấy thế nào nếu giao chìa khóa tương lai cho một người mà chính những cộng sự thân cận nhất cũng không tin tưởng? Đây không còn là chuyện đấu đá nội bộ. Khi một cá nhân nắm giữ quyền lực quá lớn đối với một công nghệ có khả năng định hình lại nền văn minh, sự tin tưởng vào người lãnh đạo đó trở thành một vấn đề về rủi ro hệ thống.
3. “Thuyền Đi Ngược Gió”: Khi An Toàn AI Chỉ Còn Là Lý Thuyết
Hệ quả của sự thay đổi văn hóa và khủng hoảng niềm tin đã hiện hữu. Jan Leike, người từng đứng đầu nhóm Siêu liên kết (Superalignment) chịu trách nhiệm về an toàn AI dài hạn, đã phải từ chức vì cảm thấy mình và đội ngũ đang “phải đi thuyền ngược gió”. Ông cho biết họ đã phải vật lộn để có được nguồn lực cần thiết cho các nghiên cứu quan trọng, trong khi công ty dồn sức cho các “sản phẩm bóng bẩy”.
William Saunders, một cựu nhân viên khác, thậm chí còn đưa ra bằng chứng trước Thượng viện Hoa Kỳ về những lỗ hổng an ninh nghiêm trọng, cho phép hàng trăm kỹ sư có thể tiếp cận và đánh cắp các mô hình AI tiên tiến nhất.
Sự ra mắt liên tục của GPT-4o, Sora… dù ấn tượng, nhưng lại dấy lên một câu hỏi khó chịu: Phải chăng OpenAI đang trong một cuộc đua nước rút để ra mắt sản phẩm, và bỏ lại sự an toàn ở phía sau?
Bản thân mình cũng từng trải qua những dự án mà áp lực ra mắt sản phẩm đè bẹp mọi lo ngại về rủi ro. Áp lực từ thị trường và nhà đầu tư là một cơn sóng thần có thể cuốn phăng những ý định tốt đẹp nhất. Câu chuyện của đội ngũ an toàn tại OpenAI có lẽ không phải là cá biệt, mà là một lời cảnh tỉnh cho cả ngành công nghệ.
Rủi ro ?
Tuy nhiên, cần có một góc nhìn công bằng. Liệu OpenAI có lựa chọn nào khác trong một cuộc đua AI khốc liệt với Google, Anthropic và các Big Tech khác? Việc duy trì một mô hình phi lợi nhuận thuần túy có thực sự khả thi khi chi phí nghiên cứu và vận hành lên tới hàng tỷ đô la? Đây là bài toán khó giữa lý tưởng và áp lực thực tại mà bất kỳ nhà lãnh đạo nào cũng phải đối mặt. Có lẽ, sự chuyển mình của OpenAI là một điều tất yếu, dù cay đắng.
Chúng Ta Đang Giao Tương Lai Của Mình Cho Ai?
Lời hứa tài chính bị phá vỡ, khủng hoảng niềm tin vào người lãnh đạo, và sự xem nhẹ an toàn dài hạn. Ba vết rạn này đang tạo thành một vết nứt lớn ngay tại nền móng của tổ chức AI quan trọng nhất hành tinh. Nhóm cựu nhân viên đã đưa ra một lộ trình sửa chữa: trao lại quyền lực cho ban giám sát phi lợi nhuận, điều tra kỹ lưỡng hành vi của CEO, thiết lập cơ chế giám sát độc lập, và giữ lại lời hứa về giới hạn lợi nhuận.
Liệu họ có thành công?
Cuối cùng, câu chuyện của OpenAI không chỉ là của riêng họ. Nó phản chiếu một câu hỏi lớn hơn mà tất cả chúng ta, từ người dùng, nhà quản lý đến các chính phủ, đều phải trả lời: Chúng ta đang tin tưởng ai để xây dựng tương lai?