Trong suốt 1 năm qua, dưới sự lãnh đạo của Sam Altman, OpenAI đã trở thành một đối thủ nặng ký trong ngành công nghệ. Nhờ vào ChatGPT – chatbot vô cùng phổ biến, chính thức ra mắt cho cộng đồng từ 30/11/2022, start-up này tại San Francisco đã nằm ở trung tâm của làn sóng trí tuệ nhân tạo, và ông Altman, CEO của OpenAI, đã trở thành một trong những nhân vật nổi bật nhất trong giới công nghệ.
Tuy nhiên, thành công này đã gây ra những căng thẳng nội bộ trong công ty. Ilya Sutskever, một nhà nghiên cứu A.I. có uy tín, người đồng sáng lập OpenAI cùng với ông Altman và 9 người khác, ngày càng lo ngại về nguy cơ nguy hiểm từ công nghệ của OpenAI và cho rằng ông Altman không đánh giá cao đủ mức độ rủi ro này. Ông Sutskever, thành viên của hội đồng quản trị, cũng không hài lòng với việc vai trò của mình trong công ty dường như bị giảm sút.
Xung đột giữa tốc độ phát triển nhanh chóng và an toàn A.I. đã trở nên rõ ràng vào chiều 17/11, khi ông Altman bị 4 trong số 6 thành viên hội đồng quản trị của OpenAI, dưới sự dẫn dắt của ông Sutskever, loại bỏ khỏi vị trí của mình.
Động thái này đã gây sốc cho nhân viên OpenAI và cả ngành công nghệ, bao gồm cả Microsoft, đối tác đã đầu tư 13 tỷ đô la vào công ty. Một số chuyên gia trong ngành cho rằng sự chia rẽ này có ý nghĩa quan trọng như khi Steve Jobs bị buộc rời khỏi Apple vào năm 1985.
Nhưng vào 18/11, trong một bước ngoặt bất ngờ, người ta nói rằng ông Altman đang thảo luận với hội đồng quản trị OpenAI về khả năng quay trở lại công ty.
Việc loại bỏ ông Altman, 38 tuổi, vào thứ Sáu đã thu hút sự chú ý đến một cuộc xung đột lâu dài trong cộng đồng A.I. giữa những người cho rằng A.I. là cơ hội kinh doanh lớn nhất của một thế hệ và những người lo lắng rằng việc phát triển quá nhanh có thể gây nguy hiểm. Và quyết định loại bỏ ông đã cho thấy làn sóng triết lý lo ngại về A.I. đã trở thành một phần không thể tránh khỏi của văn hóa công nghệ.
Kể từ khi ChatGPT được ra mắt gần một năm trước, trí tuệ nhân tạo đã thu hút sự chú ý của công chúng, với hy vọng rằng nó có thể được sử dụng cho những công việc quan trọng như nghiên cứu thuốc hoặc giúp dạy học cho trẻ em. Nhưng một số nhà khoa học A.I. và các nhà lãnh đạo chính trị lo ngại về các rủi ro của nó, như việc tự động hóa làm mất việc làm hoặc chiến tranh tự động vượt ra ngoài tầm kiểm soát của con người.
Nỗi sợ rằng các nhà nghiên cứu A.I. đang xây dựng một thứ nguy hiểm đã trở thành một phần cốt lõi của văn hóa OpenAI. Các nhà sáng lập của nó tin rằng vì họ hiểu những rủi ro này, họ là những người phù hợp để xây dựng nó.
Hội đồng quản trị của OpenAI không đưa ra lý do cụ thể nào cho việc loại bỏ ông Altman, ngoài việc nói trong một bài đăng trên blog rằng họ không tin ông Altman truyền đạt thông tin một cách trung thực với họ. Nhân viên OpenAI được thông báo vào sáng thứ Bảy rằng việc loại bỏ ông không liên quan đến “bất kỳ hành vi sai trái nào hay bất cứ điều gì liên quan đến tài chính, kinh doanh, an toàn hoặc thực hành bảo mật/quyền riêng tư”, theo một thông điệp được The New York Times xem.
Greg Brockman, một người đồng sáng lập khác và là chủ tịch của công ty, đã từ chức để phản đối vào tối thứ Sáu. Giám đốc nghiên cứu của OpenAI cũng từ chức. Đến sáng 18/11, công ty đã rơi vào hỗn loạn, theo một số nhân viên hiện tại và cựu nhân viên, và khoảng 700 nhân viên của họ đang cố gắng hiểu tại sao hội đồng quản trị lại hành động như vậy.
“Chắc hẳn tất cả các bạn đều cảm thấy hoang mang, buồn bã, và có lẽ cả sợ hãi,” Brad Lightcap, Giám đốc vận hành (COO) của OpenAI, nói trong một bản thông báo gửi đến nhân viên OpenAI. “Chúng tôi đang tập trung giải quyết vấn đề này, hướng tới việc tìm kiếm sự giải quyết và rõ ràng, và trở lại công việc.”
Vào 17/11, ông Altman được mời tham gia một cuộc họp hội đồng quản trị qua video vào buổi trưa tại San Francisco. Tại đó, ông Sutskever, 37 tuổi, đã đọc từ một bản kịch bản giống hệt với bài đăng blog mà công ty công bố vài phút sau, theo một người quen thuộc với vấn đề. Bài đăng cho biết ông Altman “không truyền đạt thông tin một cách nhất quán với hội đồng quản trị, làm cản trở khả năng thực hiện trách nhiệm của họ.”
Nhưng trong những giờ sau đó, nhân viên OpenAI và những người khác không chỉ tập trung vào những gì ông Altman có thể đã làm, mà còn vào cách thức start-up tại San Francisco được cấu trúc và quan điểm cực đoan về nguy cơ của A.I. được gắn liền với công việc của công ty kể từ khi nó được thành lập vào năm 2015.
Gần đây, Jakub Pachocki, người giúp giám sát GPT-4 – công nghệ cốt lõi của ChatGPT, đã được thăng chức làm giám đốc nghiên cứu của công ty. Sau khi từng đứng dưới quyền ông Sutskever, ông đã được nâng lên vị trí ngang hàng với ông Sutskever, theo hai người quen biết với vấn đề này.
Ông Pachocki đã rời công ty vào cuối ngày thứ Sáu, theo những người này, ngay sau khi ông Brockman từ chức. Sớm hơn trong ngày, OpenAI thông báo ông Brockman đã bị loại bỏ khỏi vị trí chủ tịch hội đồng quản trị và sẽ báo cáo cho giám đốc điều hành tạm thời, Mira Murati. Những người ủng hộ ông Altman khác – bao gồm hai nhà nghiên cứu cấp cao, Szymon Sidor và Aleksander Madry – cũng đã rời công ty.
Ông Brockman đã viết trong một bài đăng trên X, trước đây là Twitter, rằng mặc dù ông là chủ tịch hội đồng quản trị, ông không tham gia cuộc họp hội đồng quản trị nơi ông Altman bị loại bỏ. Điều này để lại ông Sutskever và ba thành viên hội đồng quản trị khác: Adam D’Angelo, giám đốc điều hành của trang web hỏi đáp Quora; Tasha McCauley, một nhà quản lý cao cấp kiêm nhiệm tại RAND Corporation; và Helen Toner, giám đốc chiến lược và quỹ nghiên cứu cơ bản tại Trung tâm An ninh và Công nghệ Nổi bật của Đại học Georgetown.
Bà McCauley và bà Toner có mối liên hệ với các phong trào Rationalist và Effective Altruist, một cộng đồng quan ngại sâu sắc rằng A.I. có thể một ngày nào đó phá hủy nhân loại. Công nghệ A.I. hiện tại không thể phá hủy nhân loại. Nhưng cộng đồng này tin rằng khi công nghệ trở nên mạnh mẽ hơn, những nguy hiểm này sẽ xuất hiện.
Vào năm 2021, một nhà nghiên cứu tên là Dario Amodei, cũng có mối liên hệ với cộng đồng này, và khoảng 15 nhân viên OpenAI khác đã rời công ty để thành lập một công ty A.I. mới có tên là Anthropic.
Ông Sutskever ngày càng đi theo những niềm tin này. Sinh ra ở Liên Xô, ông đã trải qua những năm tháng hình thành ở Israel và di cư đến Canada khi còn là thiếu niên. Khi là sinh viên sau đại học tại Đại học Toronto, ông đã giúp tạo ra một đột phá trong công nghệ A.I. gọi là mạng nơ-ron.
Năm 2015, ông Sutskever rời Google và giúp thành lập OpenAI cùng với ông Altman, ông Brockman và Giám đốc điều hành của Tesla, Elon Musk. Họ xây dựng phòng thí nghiệm này như một tổ chức phi lợi nhuận, tuyên bố rằng, không giống như Google và các công ty khác, nó sẽ không bị thúc đẩy bởi lợi ích thương mại. Họ cam kết xây dựng cái gọi là trí tuệ tổng hợp, hay A.G.I., một máy móc có thể làm mọi thứ mà bộ não có thể làm.
Ông Altman đã chuyển đổi OpenAI thành một công ty lợi nhuận vào năm 2018 và đàm phán một khoản đầu tư 1 tỷ đô la từ Microsoft. Những khoản tiền khổng lồ như vậy là cần thiết để xây dựng công nghệ như GPT-4, đã được phát hành vào đầu năm nay. Kể từ khoản đầu tư ban đầu, Microsoft đã đầu tư thêm 12 tỷ đô la vào công ty.
Công ty vẫn được điều hành bởi hội đồng quản trị phi lợi nhuận. Những nhà đầu tư như Microsoft nhận được lợi nhuận từ OpenAI, nhưng lợi nhuận của họ bị giới hạn. Bất kỳ số tiền nào vượt quá mức giới hạn sẽ được chuyển trở lại vào tổ chức phi lợi nhuận.
Khi nhận thấy sức mạnh của GPT-4, ông Sutskever đã giúp tạo ra một đội mới trong công ty có tên Super Alignment Team, nhằm khám phá cách đảm bảo rằng các phiên bản công nghệ trong tương lai sẽ không gây hại.
Ông Altman đã mở cửa cho những mối quan ngại đó, nhưng ông cũng muốn OpenAI giữ vững vị thế dẫn đầu trước các đối thủ cạnh tranh lớn hơn. Vào cuối tháng Chín, ông Altman bay đến Trung Đông để gặp gỡ các nhà đầu tư, theo hai người quen thuộc với vấn đề này. Ông đã tìm kiếm khoản đầu tư lên đến 1 tỷ đô la từ SoftBank, nhà đầu tư công nghệ Nhật Bản do Masayoshi Son lãnh đạo, cho một dự án OpenAI tiềm năng sẽ xây dựng một thiết bị phần cứng để chạy các công nghệ A.I. như ChatGPT.
OpenAI cũng đang thảo luận về một khoản đầu tư “tender offer” cho phép nhân viên bán cổ phần trong công ty. Thỏa thuận này sẽ định giá OpenAI hơn 80 tỷ đô la, gần gấp ba lần giá trị của nó khoảng sáu tháng trước.
Nhưng dường như thành công của công ty chỉ làm tăng thêm lo ngại rằng một điều gì đó có thể sai sót với A.I.
“Có vẻ không hề phi lý khi chúng ta sẽ có các trung tâm dữ liệu – máy tính – thông minh hơn con người,” ông Sutskever nói trong một podcast vào ngày 2 tháng 11. “Những A.I. này sẽ làm gì? Tôi không biết.”
Trong bài đăng của Sutskever trên X về sự hối hận của mình: “Tôi vô cùng hối tiếc vì đã tham gia vào các hoạt động của hội đồng quản trị. Tôi chưa bao giờ có ý định làm hại OpenAI. Tôi yêu tất cả những gì chúng ta đã cùng nhau xây dựng và tôi sẽ làm mọi thứ có thể để đoàn tụ công ty.”
Elon Musk, đã phản hồi rằng: “Tại sao bạn lại có hành động quyết liệt như vậy? Nếu OpenAI đang làm điều gì đó có khả năng gây nguy hiểm cho nhân loại thì thế giới cần phải biết.”