Cái giá để phát triển ChatGPT nói riêng và AI tạo sinh nói chung vô cùng lớn, vượt sức tưởng tượng của nhiều người.
Trước khi ChatGPT của OpenAI xuất hiện và làm khuynh đảo thế giới với khả năng đ&a
acute;p ứng nhiều yêu cầu kh&aac
ute;c nhau, startup nhỏ b&e
acute; Latitude đã “gây sốt” với game AI Dungeon. AI Dungeon sử dụng AI tạo ra những câu chuyện thần tiên.
Dù vậy, khi phổ biến hơn, chi ph&i
acute; duy tr&igra
ve; game nhập vai này tăng vọt. Người chơi càng nhiều, h&o
acute;a đơn Lattitude phải trả cho OpenAI - công ty cung cấp công nghệ ngôn ngữ GPT đứng sau game – càng cao.
CEO Nick Walton còn
phát hiện c&aac
ute;c nhà tiếp thị nội dung đã sử dụng AI Dungeon viết bài quảng b&a
acute;, một t&aac
ute;c dụng mà nh&o
acute;m của ông chưa từng nghĩ đến.
Vào cao điểm năm 2021, Walton ước t&i
acute;nh Latitude chi gần 200.000 USD/th&a
acute;ng cho phần mềm AI tạo sinh của OpenAI và Amazon Web Services (AWS) để theo kịp hàng triệu truy vấn từ người dùng mỗi ngày. Với một startup, vài trăm nghìn USD/th&a
acute;ng cho AI là con số khổng lồ.
Đến cuối năm 2021, Latitude chuyển sang dùng phần mềm của AI21 Labs, rẻ hơn GPT của OpenAI, kết hợp với t&i
acute;ch hợp mô hình ngôn ngữ miễn ph&i
acute;, nguồn mở nhằm giảm thiểu chi ph&i
acute;. H&o
acute;a đơn AI tạo sinh của startup giảm xuống dưới 100.000 USD/th&a
acute;ng. Họ cũng thu ph&i
acute; người dùng để bù đắp.
Câu chuyện của Latitude h&e
acute; lộ phần nào thực tế không mấy “màu hồng” ph&i
acute;a sau sự bùng nổ của AI tạo sinh. C&a
acute;i gi&a
acute; cho sự
phát triển và duy trì phần mềm vô cùng lớn, cả cho doanh nghiệp
phát triển công nghệ nền lẫn những ai dùng AI cho phần mềm của mình.
Chỉ c&o
acute; c&aac
ute;c tên tuổi lớn như Microsoft, Meta, Alphabet mới c&o
acute; nguồn vốn ngoại cỡ dẫn đầu cuộc chơi. Song việc biên lợi nhuận của c&aac
ute;c ứng dụng AI thấp hơn nhiều so với SaaS c&o
acute; thể ngăn cản đà bùng nổ hiện tại.
Chatbot Bing AI của Microsoft. (Ảnh: CNBC)
Chi ph&i
acute; đào tạo và “suy luận” c&aac
ute;c mô hình ngôn ngữ lớn kh&aac
ute;c biệt so với công nghệ điện to&a
acute;n trước đây. Ngay cả khi đã
phát triển hay đào tạo phần mềm, vẫn cần lượng lớn năng lực điện to&a
acute;n để vận hành c&aac
ute;c mô hình ngôn ngữ lớn vì ch&u
acute;ng thực hiện hàng tỷ t&i
acute;nh to&a
acute;n mỗi lần trả lời một truy vấn. Trong khi đ&o
acute;, cung cấp ứng dụng hay trang web nhẹ nhàng hơn nhiều.
C&aac
ute;c ph&e
acute;p t&i
acute;nh cũng cần phần cứng chuyên biệt. Dù chip m&a
acute;y t&i
acute;nh truyền thống vẫn c&o
acute; thể chạy mô hình m&a
acute;y học, tốc độ lại rất chậm. Hầu hết việc đào tạo và can thiệp đều diễn ra trên GPU – vốn dành cho game 3D – nhưng nay đã thành tiêu chuẩn cho ứng dụng AI vì ch&u
acute;ng c&o
acute; thể thực hiện nhiều ph&e
acute;p t&i
acute;nh đơn giản đồng thời.
Nvidia sản xuất hầu hết GPU cho ngành công nghiệp AI. Con chip data center của hãng lên tới 10.000 USD.
Đào tạo và suy luận
C&aac
ute;c nhà phân t&i
acute;ch và chuyên gia công nghệ ước t&i
acute;nh quy trình đào tạo mô hình ngôn ngữ lớn như GPT-3 của OpenAI mất hơn 4 triệu USD. C&aac
ute;c công cụ hiện đại hơn sẽ tốn k&e
acute;m hơn. Chẳng hạn, mô hình LlaMA của Meta công bố th&a
acute;ng trước sử dụng 2.048 GPU Nvidia A100 để đào tạo 1,4 nghìn tỷ token (750 từ tương đương 1.000 token) trong khoả
ng 21 ngày.
Clement Denlangue, CEO startup HuggingFace, cho biết quy trình đào tạo mô hình ngôn ngữ lớn Bloom của họ mất hơn 2,5 th&a
acute;ng, cần đến siêu m&a
acute;y t&i
acute;nh tương đương 500 GPU. Những tổ chức
phát triển mô hình ngôn ngữ lớn phải thận trọng khi đào tạo lại phần mềm vì rất đắt đỏ.
Ông chia sẻ, không phải l&uac
ute;c nào c&aac
ute;c mô hình này cũng được đào tạo. Ch&i
acute;nh vì vậy một số mô hình như ChatGPT lại không c&o
acute; kiến thức về c&aac
ute;c sự kiện gần đây, mà dừng lại ở năm 2021.
Nếu sử dụng mô hình m&a
acute;y học đã được đào tạo để dự đo&a
acute;n hay tạo văn bản, kỹ sư dùng đến mô hình “suy luận”, còn đắt hơn cả đào tạo. Với một sản phẩm phổ biến như ChatGPT (100 triệu người dùng vào th&a
acute;ng 1), ước t&i
acute;nh OpenAI phải bỏ ra 40 triệu USD để xử l&y
acute; hàng triệu truy vấn mà mọi người nạp vào trong th&a
acute;ng đ&o
acute;.
Chi ph&i
acute; sẽ đội lên nhiều lần khi c&aac
ute;c công cụ này được dùng hàng tỷ lần mỗi ngày. Theo c&aac
ute;c chuyên gia tài ch&i
acute;nh, chatbot Bing AI của Microsoft – sử dụng mô hình ChatGPT – cần &i
acute;t nhất 4 tỷ USD hạ tầng để phản hồi người dùng.
Trong trường hợp của Latitude, dù không mất tiền đào tạo mô hình ngôn ngữ, chi ph&i
acute; suy luận vào khoảng nửa cent/lần cho hàng triệu yêu cầu mỗi ngày.
Để gieo mầm cho AI, c&aac
ute;c nhà đầu tư mạo hiểm và Big Tech đã đầu tư hàng tỷ USD vào c&aac
ute;c startup chuyên về AI tạo sinh. Microsoft r&o
acute;t khoảng 10 tỷ USD cho OpenAI. Salesforce Ventures gần đây ra mắt quỹ 250 triệu USD dành riêng cho c&aac
ute;c startup trong lĩnh vực này.
Trông chờ vào thay đổi
Không rõ
phát triển AI c&o
acute; còn tốn k&e
acute;m không khi ngành công nghiệp tiến xa hơn. C&aac
ute;c công ty làm mô hình ngôn ngữ, nhà sản xuất b&a
acute;n dẫn và startup đều nhìn thấy cơ hội khi chi ph&i
acute; vận hành phần mềm AI giảm.
Nvidia – hãng nắm 95% thị phần chip AI – tiếp tục
phát triển những phiên bản mạnh mẽ hơn cho m&a
acute;y học. CEO Jensen Huang tin rằng trong 10 năm tới, AI sẽ hiệu quả hơn “một triệu lần” không chỉ nhờ vào cải tiến của chip, mà còn do phần mềm và linh kiện m&a
acute;y t&i
acute;nh kh&a
acute;c.
Chip Nvidia A100 c&o
acute; gi&a
acute; 10.000 USD. (Ảnh: Nvidia)
Một số startup tập trung giải quyết chi ph&i
acute; khi vận hành AI, chẳng hạn D-Matrix. Startup này xây dựng hệ thống nhằm tiết kiệm chi ph&i
acute; suy luận bằng c&a
acute;ch xử l&y
acute; nhiều hơn trong bộ nhớ m&a
acute;y t&i
acute;nh thay vì chỉ trên GPU. Theo nhà s&a
acute;ng lập D-Matrix, vấn đề là mọi người sử dụng GPU để thực hiện gần như mọi suy luận và mua c&aac
ute;c hệ thống đắt tiền từ Nvidia. Tuy nhiên, khối lượng công việc tăng rất nhanh và không c&o
acute; c&a
acute;ch nào mà GPU theo kịp được vì n&o
acute; không được làm ra cho điều đ&o
acute;. N&o
acute; được làm ra để đào tạo, tăng tốc đồ họa.
Delangue, CEO HuggingFace, tin rằng nhiều công ty sẽ được phục vụ tốt hơn nếu tập trung vào mô hình nhỏ, riêng biệt c&o
acute; chi ph&i
acute; đào tạo và vận hành thấp hơn, thay vì dùng mô hình ngôn ngữ lớn. Trong khi đ&o
acute;, th&a
acute;ng trước, OpenAI thông b&a
acute;o sẽ giảm gi&a
acute; truy cập mô hình GPT cho c&aac
ute;c doanh nghiệp, chỉ còn 1/5 cent cho mỗi 750 từ. Thay đổi lớn này mang đến cơ hội cho những hãng như Latitude hướng tới phục vụ người dùng tốt nhất.
(Theo CNBC)
ChatGPT c&o
acute; thể tạo cuộc c&a
acute;ch mạng trên xe hơi
ChatGPT c&o
acute; thể th&uac
ute;c đẩy bảng điều khiển trên ô tô tiến tới một bước xa hơn, và trở thành phương tiện giao tiếp ch&i
acute;nh trong c&aac
ute;c hệ thống phức tạp như xe tự l&a
acute;i.
ChatGPT buộc c&aac
ute;c cơ quan b&a
acute;o ch&i
acute; c&o
acute; nguồn thu dựa vào quảng c&a
acute;o số phải thay đổi
Chatbot hỏi đ&a
acute;p khiến người dùng &i
acute;t click hơn, làm giảm lượng truy cập và doanh thu c&aac
ute;c tờ b&a
acute;o. Để tồn tại, b&a
acute;o ch&i
acute; phải giảm dần sự phụ thuộc vào doanh thu quảng c&a
acute;o.
Lợi và hại của công cụ ChatGPT với c&aac
ute;c lập trình viên Việt
Bày tỏ sự ấn tượng về độ xuất sắc của ChatGPT trong hỗ trợ việc lập trình, c&aac
ute;c lập trình viên Việt cũng &y
acute; thức được nguy cơ sẽ bị đào thải nếu lạm dụng, phụ thuộc vào công cụ này.
Nguồn bài viết : JILI Game Bài 3d