• The AI Growth
  • Posts
  • Trình tạo hình ảnh và video Grok mới của xAI có chế độ 'SPICY'

Trình tạo hình ảnh và video Grok mới của xAI có chế độ 'SPICY'

Ngoài ra, 4 hạn chế lớn khi dùng các chatbot AI làm công cụ tìm kiếm

Welcome, Growth Pioneers! 🚀

Chào bạn,

Hôm nay TAG sẽ chia sẻ cho bạn tin tức mới nhất về các cập nhật của AI

Công cụ Grok Imagine mới của xAI là một trình tạo hình ảnh và video AI khuyến khích người dùng tạo nội dung NSFW (không phù hợp cho công việc/chỗ làm việc). Trái ngược với các công cụ video AI tạo nội dung đối thủ như Veo của Google và Sora của OpenAI , vốn cố gắng ngăn người dùng tạo ra bất kỳ nội dung đồi trụy nào, tính năng Imagine của chatbot Grok cung cấp chế độ tạo nội dung "Spicy" (cay) chủ động điều khiển chatbot tạo ra nội dung khỏa thân và khiêu dâm.

Grok Imagine bao gồm khả năng chuyển đổi văn bản thành hình ảnh, cho phép người dùng tạo hình ảnh dựa trên mô tả, hoặc công cụ chuyển đổi hình ảnh thành video để tạo các clip ngắn, kèm theo hiệu ứng âm thanh như mô hình Veo 3 của Google. Tuy nhiên, không giống như Veo, Grok Imagine không trực tiếp tạo video từ mô tả văn bản — thay vào đó, người dùng cần chọn một hình ảnh có sẵn từ thư viện hoặc tạo một hình ảnh trong Grok trước để công cụ hoạt hình hóa.

Việc tạo hình ảnh ít hạn chế hơn. Người dùng có thể tạo ra nhiều phong cách khác nhau, bao gồm ảnh chân thực, anime và minh họa, và nó có chế độ giọng nói cho phép nói thay vì gõ phím — điều mà trẻ em sẽ thích tương tác, theo Elon Musk, CEO của xAI . Việc tạo video dựa trên hình ảnh tham chiếu do người dùng tải lên và có bốn chế độ để điều chỉnh cách hoạt hình: Tùy chỉnh, Bình thường, Vui nhộn và Cay.

Musk mô tả Grok Imagine là " AI Vine ", một nền tảng mà ông từ lâu đã bày tỏ mong muốn hồi sinh . Người dùng X đã công bố các thử nghiệm Grok Imagine của họ, với một số tùy chọn "Spicy" mô tả những phụ nữ siêu thực khoe ngực và bộ phận sinh dục, và những cô nàng anime waifu mặc bikini khiêu vũ gợi cảm bên cạnh tên lửa SpaceX. Theo Musk , hơn 34 triệu hình ảnh đã được tạo ra bằng công cụ này kể từ thứ Hai.

Hiện vẫn chưa rõ liệu Grok Imagine có áp dụng bất kỳ hạn chế nào về việc tạo nội dung hay không, nhưng các công cụ tạo hình ảnh trước đây của Grok rất dễ bị bỏ qua . Trong quá trình thử nghiệm, TechCrunch phát hiện ra rằng khả năng tạo ảnh của Grok Imagine có một số hạn chế liên quan đến việc tạo ảnh người nổi tiếng. Chúng tôi vẫn chưa thể kiểm tra xem chế độ Spicy của công cụ này có thể làm lộ ảnh phụ nữ thật được tải lên làm tài liệu tham khảo hay không.

Imagine hiện có sẵn cho người dùng SuperGrok và Premium Plus X thông qua ứng dụng Grok trên iOS. Công cụ này cũng đã bắt đầu được triển khai dưới dạng truy cập sớm cho ứng dụng Grok trên Android, nhưng người dùng phản ánh rằng hiện tại nó chỉ giới hạn ở việc tạo hình ảnh và thiếu tính năng tạo video.

4 hạn chế lớn khi dùng các chatbot AI làm công cụ tìm kiếm

Hiện nay, khá nhiều người bắt đầu coi các chatbot AI là công cụ tìm kiếm chính của họ mà không nhận ra rằng những công cụ này thường xuyên mắc lỗi và hậu quả nghiêm trọng có thể xảy ra.

Chúng bịa đặt sự thật một cách tự tin và ảo tưởng

Vấn đề của chatbot AI là: chúng được thiết kế để nghe có vẻ thông minh, chứ không phải để đảm bảo độ chính xác. Khi bạn hỏi điều gì đó, chúng thường sẽ đưa ra cho bạn một câu trả lời nghe như đến từ một nguồn đáng tin cậy, ngay cả khi nó hoàn toàn sai.

Một ví dụ điển hình về điều này thực sự đã xảy ra với một người gần đây. Một du khách người Úc đang lên kế hoạch cho một chuyến đi đến Chile và hỏi ChatGPT liệu họ có cần thị thực không. Chatbot tự tin trả lời là không, nói rằng người Úc có thể nhập cảnh mà không cần thị thực.

Nghe có vẻ hợp lệ, vì vậy du khách đã đặt vé, hạ cánh xuống Chile và bị từ chối nhập cảnh. Hóa ra, người Úc cần thị thực để nhập cảnh vào Chile, và người đó đã bị mắc kẹt hoàn toàn ở một quốc gia khác.

Điều này xảy ra bởi vì các chatbot và các mô hình ngôn ngữ lớn (LLM) đứng sau nó không thực sự "tra cứu" câu trả lời. Chúng tạo ra văn bản dựa trên các mẫu được đào tạo, nghĩa là chúng có thể lấp đầy khoảng trống bằng thông tin nghe có vẻ hợp lý, ngay cả khi nó sai. Và đáng ngại hơn, chatbot sẽ không nói với bạn rằng nó không chắc chắn - hầu hết thời gian, các chatbot sẽ trình bày câu trả lời như một sự thật.

Đó là lý do tại sao ảo giác lại là một vấn đề lớn như vậy. Nó không chỉ là một câu trả lời sai, mà là một câu trả lời sai mà cảm thấy đúng. Khi bạn đưa ra quyết định trong đời thực, đó là lúc thiệt hại xảy ra.

Mặc dù có nhiều cách để ngăn chặn ảo giác AI, bạn vẫn có thể mất tiền, trễ hạn, hoặc, trong trường hợp của người Úc trên, bị kẹt ở sân bay vì bạn tin tưởng một công cụ không thực sự biết nó đang nói về điều gì.

Các mô hình LLM được đào tạo trên các tập dữ liệu hạn chế với độ sai lệch không xác định

Các mô hình ngôn ngữ lớn được đào tạo trên các tập dữ liệu khổng lồ, nhưng không ai thực sự biết chính xác những tập dữ liệu đó bao gồm những gì. Chúng được xây dựng từ sự kết hợp của các trang web, sách, diễn đàn và các nguồn công khai khác, và sự kết hợp đó có thể không đồng đều.

Giả sử bạn đang cố gắng tìm hiểu cách khai thuế với tư cách là một người làm việc tự do và bạn nhờ một chatbot trợ giúp. Nó có thể cung cấp cho bạn một câu trả lời dài dòng và chi tiết, nhưng lời khuyên có thể dựa trên các quy tắc lỗi thời của Sở Thuế vụ Mỹ (IRS), hoặc thậm chí là một bình luận ngẫu nhiên của người dùng trên diễn đàn.

Chatbot không cho bạn biết thông tin đó đến từ đâu, và nó sẽ không đánh dấu nếu có điều gì đó không áp dụng cho trường hợp của bạn. Nó chỉ diễn đạt câu trả lời như thể nó đến từ một chuyên gia thuế.

Đó là vấn đề về sự thiên vị trong các mô hình LLM. Nó không phải lúc nào cũng liên quan đến chính trị hay văn hóa, mà cũng có thể liên quan đến việc tiếng nói của ai được đưa vào và tiếng nói của ai bị bỏ qua. Nếu dữ liệu đào tạo thiên về một số khu vực, quan điểm hoặc khoảng thời gian nhất định, thì các phản hồi cũng sẽ như vậy. Bạn sẽ không phải lúc nào cũng nhận thấy điều đó, nhưng lời khuyên bạn nhận được có thể bị sai lệch một cách tinh vi.

Chatbot AI chỉ phản ánh lại ý kiến của bạn

Hãy hỏi chatbot một câu hỏi khó, và nó thường sẽ đưa ra cho bạn một câu trả lời nghe có vẻ ủng hộ, ngay cả khi câu trả lời đó hoàn toàn thay đổi tùy thuộc vào cách bạn diễn đạt câu hỏi. Vấn đề không phải là AI đồng ý với bạn. Vấn đề là nó được thiết kế để hữu ích, và trong hầu hết các trường hợp, "hữu ích" có nghĩa là đồng tình với những giả định của bạn.

Ví dụ: nếu bạn hỏi: "Bữa sáng có thực sự quan trọng đến vậy không?", chatbot có thể nói với bạn rằng bỏ bữa sáng là tốt và thậm chí còn liên hệ nó với việc nhịn ăn gián đoạn. Nhưng nếu bạn hỏi: "Tại sao bữa sáng lại là bữa ăn quan trọng nhất trong ngày?", chatbot sẽ đưa ra cho bạn một lập luận thuyết phục về mức năng lượng, quá trình trao đổi chất và khả năng tập trung tốt hơn. Cùng một chủ đề, nhưng giọng điệu hoàn toàn khác, bởi vì nó chỉ phản ứng với cách bạn đặt câu hỏi.

Hầu hết các mô hình này được xây dựng để khiến người dùng cảm thấy hài lòng với câu trả lời. Và điều đó có nghĩa là chúng hiếm khi thách thức bạn.

Chúng có nhiều khả năng đồng ý với cách bạn đặt câu hỏi hơn là phản bác, bởi vì những tương tác tích cực có liên quan đến việc giữ chân người dùng cao hơn. Về cơ bản, nếu chatbot mang lại cảm giác thân thiện và đáng tin cậy, bạn sẽ có nhiều khả năng tiếp tục sử dụng nó.

Có một số mô hình đặt câu hỏi cho bạn thay vì đồng ý một cách mù quáng. Kiểu phản hồi đó có thể hữu ích, nhưng nó vẫn là ngoại lệ, không phải là quy luật.

Chatbot không được cập nhật thông tin theo thời gian thực

Nhiều người cho rằng chatbot AI luôn được cập nhật, đặc biệt là khi các công cụ như ChatGPT, Gemini và Copilot có thể truy cập web. Nhưng việc chúng có thể duyệt web không có nghĩa là chúng giỏi - đặc biệt là khi nói đến tin tức nóng hổi hoặc sản phẩm mới ra mắt.

Nếu bạn hỏi một chatbot về iPhone 17 vài giờ sau khi sự kiện kết thúc, rất có thể bạn sẽ nhận được một hỗn hợp những suy đoán lỗi thời và chi tiết bịa đặt. Thay vì lấy thông tin từ trang web chính thức của Apple hoặc các nguồn đã được xác minh, chatbot có thể đoán dựa trên các tin đồn hoặc các mô hình ra mắt trước đó. Bạn sẽ nhận được một câu trả lời nghe có vẻ tự tin, nhưng một nửa trong số đó có thể sai.

Điều này xảy ra bởi vì duyệt web theo thời gian thực không phải lúc nào cũng diễn ra theo cách bạn mong đợi. Một số trang có thể chưa được lập chỉ mục, công cụ có thể dựa vào kết quả được lưu trong bộ nhớ đệm, hoặc có thể chỉ mặc định sử dụng dữ liệu tiền huấn luyện thay vì thực hiện tìm kiếm mới. Và vì câu trả lời được viết mượt mà và tự tin, bạn thậm chí có thể không nhận ra nó không chính xác.

Đối với thông tin nhạy cảm về thời gian, chẳng hạn như tóm tắt sự kiện, thông báo sản phẩm hoặc thông tin thực tế ban đầu, LLM vẫn chưa đáng tin cậy. Bạn thường sẽ nhận được kết quả tốt hơn nếu chỉ sử dụng công cụ tìm kiếm truyền thống và tự mình kiểm tra nguồn.

Vì vậy, mặc dù "truy cập internet trực tiếp" nghe có vẻ như đã giải quyết được vấn đề, nhưng nó vẫn chưa hoàn hảo. Và nếu bạn cho rằng chatbot luôn biết những gì đang diễn ra ngay lúc đó, bạn đang tự chuốc lấy thông tin sai lệch.

📬 Nếu thấy bản tin hữu ích?
Hãy chia sẻ đến cộng đồng sáng tạo mà bạn yêu quý – và giúp TAG có thêm động lực lan toả sức mạnh của AI đến nhiều người hơn nữa! và đừng quên theo dõi Fanpage THE AI GROWTH để cập tin nha hơn nhé!

Và nếu bạn muốn nâng cấp kiến thức và sở hữu cho mình một hệ thống AI Agent cực đỉnh vận hành tự động cho cá nhân hay chính doanh nghiệp của mình đừng quên xem ngay các khóa học mới nhất của TAG

Một hệ thống giúp bạn:

  • Giảm 70% công việc lặp lại, tăng 300% output nội dung, tự động hóa 80% quy trình sale & marketing.

  • Tăng 40% chuyển đổi nhờ AI chatbot, giảm 60% chi phí marketing, nâng 200% chất lượng CSKH.

  • Vượt trội đối thủ 2-3 năm về công nghệ, sở hữu mô hình kinh doanh – dễ nhân bản, khó bị sao chép bởi USP độc quyền.

  • Dễ dàng mở rộng (Scale up) không giới hạn – bạn có thể x10, x100 với AI Agent mà không cần thêm nhân sự.

Cảm ơn bạn đã đồng hành cùng The AI Growth!

Trân trọng,
The AI Growth Team
Kiến tạo giá trị – Dẫn dắt cuộc chơi!