Tech

Tuần này trong lĩnh vực AI: Chúng ta có thể (và liệu chúng ta có thể bao giờ) tin tưởng vào OpenAI?

Đuối kịp với một ngành công nghiệp diễn ra nhanh chóng như AI là một việc khá khó khăn. Vì vậy, cho đến khi có một hệ thống trí tuệ nhân tạo có thể làm điều đó thay bạn, đây là một bản tin tóm lược hữu ích về các câu chuyện gần đây trong thế giới học máy, cùng với các nghiên cứu và thử nghiệm đáng chú ý mà chúng tôi chưa thể bao giờ đề cập đến.

By the way, TechCrunch dự định sẽ ra mắt một bản tin về AI vào ngày 5 tháng 6. Hãy theo dõi. Trong khi đó, chúng tôi sẽ tăng tốc độ xuất bản cột báo AI của mình từ trước đây là hai lần mỗi tháng (hoặc gần đó) lên hàng tuần — vì vậy hãy chờ đợi thêm những phiên bản nữa.

Tuần này trong lĩnh vực AI, OpenAI đã ra mắt các kế hoạch giảm giá cho các tổ chức phi lợi nhuận và khách hàng giáo dục và mở màn những nỗ lực gần đây nhất của mình để ngăn chặn những kẻ xấu sử dụng công cụ AI của mình. Không có gì để phê phán ở đây — ít nhất là theo quan điểm của tác giả. Nhưng tôi sẽ nói rằng làn sóng thông báo có vẻ được định thời để chống lại sự phê bình về công ty trong thời gian gần đây.

Bắt đầu với Scarlett Johansson. OpenAI đã loại bỏ một trong những giọng nói được sử dụng bởi chatbot dựa trên trí tuệ nhân tạo của mình, ChatGPT, sau khi người dùng chỉ ra rằng nó nghe giống như Johansson. Sau đó, Johansson phát hành một tuyên bố cho biết cô đã thuê luật sư để đề nghị về giọng nói và có chi tiết chính xác về cách nó đã được phát triển — và rằng cô đã từ chối mọi lời đề nghị từ OpenAI để cấp phép giọng nói của mình cho ChatGPT.

Bây giờ, một bài báo trên tờ The Washington Post ám chỉ rằng OpenAI thực sự không cố gắng sao chép giọng nói của Johansson và bất kỳ sự tương đồng nào là ngẫu nhiên. Nhưng tại sao, sau đó, CEO của OpenAI, Sam Altman đã liên lạc với Johansson và yêu cầu cô xem xét lại hai ngày trước một bản demo nổi bật có giọng nói giống yếu tố?

Điều đó hơi nghi ngờ.

Và sau đó là các vấn đề về niềm tin và an toàn của OpenAI.

Như chúng tôi đã báo cáo vào cuối tháng trước, nhóm Superalignment của OpenAI, sau này đã giải thể, có trách nhiệm phát triển cách thức để quản lý và điều chỉnh các hệ thống trí tuệ siêu vi AI, đã được hứa 20% tài nguyên tính toán của công ty — nhưng chỉ nhận được một phần nhỏ và ít khi thực sự nhận được điều này. Điều đó (giữa các lý do khác) đã dẫn đến việc từ chức của hai người đồng đội là Jan Leike và Ilya Sutskever, trước đây là nhà khoa học trưởng của OpenAI.

Gần mười người chuyên gia an toàn đã rời khỏi OpenAI trong năm qua; một số người, bao gồm Leike, đã công khai bày tỏ lo ngại rằng công ty đang ưu tiên dự án thương mại hơn so với những nỗ lực về an toàn và minh bạch. Để đáp ứng phê bình, OpenAI đã thành lập một ủy ban mới để giám sát các quyết định về an toàn và bảo mật liên quan đến các dự án và hoạt động của công ty. Nhưng nó đã bổ nhiệm ủy ban với các nhân viên bên trong công ty — bao gồm Altman — thay vì các quan sát ngoài. Điều này đến khi OpenAI được cho là đang xem xét bỏ cấu trúc phi lợi nhuận của mình để chuyển sang một mô hình lợi nhuận truyền thống.

Những sự việc như vậy khiến việc tin tưởng vào OpenAI trở nên khó khăn hơn, một công ty quyền lực và ảnh hưởng của nó tăng lên mỗi ngày (xem: các thỏa thuận của nó với các nhà xuất bản tin tức). Ít doanh nghiệp, nếu có, đáng tin cậy. Nhưng các công nghệ phá thị trường của OpenAI khiến các vi phạm trở nên đáng quan ngại hơn.

Thật không tốt khi Altman chính mình cũng không phải là người xấp xỉ sự trung thực.

Khi tin tức về những hành động quyết liệt của OpenAI đối với nhân viên cũ bắt đầu xuất hiện — những hành động như đe dọa nhân viên về việc mất quyền chọn cổ phần của họ hoặc ngăn chặn việc bán cổ phần, nếu họ không ký vào các thỏa thuận giữa các bên — Altman đã xin lỗi và khẳng định rằng ông không có kiến thức về các chính sách đó. Nhưng, theo Vox, chữ ký của Altman nằm trên các văn kiện thành lập mà đã ban hành các chính sách đó.

Và nếu tin tưởng vào cựu thành viên Hội đồng Quản trị OpenAI, Helen Toner — một trong những cựu thành viên Hội đồng đã cố gắng loại bỏ Altman khỏi vị trí chủ tịch của mình vào cuối năm ngoái — Altman đã giấu thông tin, biến tường cái đang diễn ra tại OpenAI và trong một số trường hợp, thậm chí là nói dối trước Hội đồng. Toner nói rằng Hội đồng đã biết về việc phát hành ChatGPT thông qua Twitter, không phải từ Altman; rằng Altman đưa ra thông tin sai về các thực hành an toàn chính thức của OpenAI; và rằng Altman, không hài lòng với một bài báo khoa học mà Toner cộng tác viết mà đến từ chiếu sáng tiêu cực về OpenAI, đã cố gắng thuyết phục các thành viên Hội đồng đẩy Toner ra khỏi Hội đồng.

Không điều gì là tốt đẹp.

Dưới đây là một số câu chuyện AI khác đáng chú ý trong vài ngày qua:

  • Việc nhân giọng dễ dàng: Một báo cáo mới từ Trung tâm Chống lại Bạo lực Kỹ thuật Số phát hiện ra rằng các dịch vụ nhân giọng dựa trên trí tuệ nhân tạo làm cho việc giả mạo tuyên bố của một chính trị gia trở nên rất dễ dàng.
  • Cân nhắc AI của Google gặp khó khăn: AI Overviews, các kết quả tìm kiếm dựa trên trí tuệ nhân tạo mà Google bắt đầu triển khai rộng rãi hơn vào đầu tháng này trên Google Search, cần phải làm việc. Công ty thừa nhận điều này — nhưng khẳng định rằng họ đang phát triển nhanh chóng. (Chúng ta sẽ thấy.)
  • Paul Graham về Altman: Trong một loạt bài đăng trên X, Paul Graham, người sáng lập của trung tâm tăng tốc khởi nghiệp Y Combinator, đã xua đuổi những cáo buộc rằng Altman bị áp lực để từ chức tổng giám đốc của Y Combinator vào năm 2019 do tiềm ẩn xung đột lợi ích. (Y Combinator có mối quan hệ cổ phần rất nhỏ tại OpenAI.)
  • xAI gọi vốn 6 tỷ đô la: Công ty khởi nghiệp AI của Elon Musk, xAI, đã gọi vốn 6 tỷ đô la khi Musk tăng cường vốn để cạnh tranh mạnh mẽ với các đối thủ bao gồm OpenAI, Microsoft và Alphabet.
  • Tính năng mới của AI của Perplexity: Với khả năng mới Perplexity Pages, công ty khởi nghiệp AI Perplexity đang nhằm mục đích giúp người dùng tạo ra báo cáo, bài viết hoặc hướng dẫn một cách hấp dẫn hình thức hơn, Ivan báo cáo.
  • Số yêu thích của các mô hình AI: Devin viết về các số mà các mô hình AI khác nhau lựa chọn khi họ được giao nhiệm vụ đưa ra một câu trả lời ngẫu nhiên. Như thì quả có, họ có những số yêu thích — một phản ánh của dữ liệu mà mỗi mô hình đã được huấn luyện.
  • Mistral ra mắt Codestral: Mistral, công ty khởi nghiệp AI của Pháp được hỗ trợ bởi Microsoft và được định giá 6 tỷ đô la, đã ra mắt mô hình AI sinh mã đầu tiên của mình, được gọi là Codestral. Nhưng nó không thể được sử dụng thương mại, nhờ vào giấy phép khá hạn chế của Mistral.
  • Chatbots và quyền riêng tư: Natasha viết về nhóm nhiệm vụ ChatGPT của Liên minh Châu Âu và cách mà nó cung cấp cái nhìn đầu tiên về việc giải quyết tuân thủ quyền riêng tư của chatbot AI.
  • Công cụ tạo âm thanh của ElevenLabs: Công ty khởi nghiệp nhân giọng ElevenLabs giới thiệu một công cụ mới, được thông báo lần đầu vào tháng hai, giúp người dùng tạo ra hiệu ứng âm thanh thông qua yêu cầu.
  • Các kết nối cho chip AI: Các ông lớn công nghệ bao gồm Microsoft, Google và Intel — nhưng không bao gồm Arm, Nvidia hoặc AWS — đã hình thành một nhóm thúc đẩy ngành công nghiệp, nhóm UALink Promoter Group, để giúp phát triển các thành phần chip AI thế hệ tiếp theo.

Related Articles

Back to top button Back to top button