• The AI Growth
  • Posts
  • Kỹ thuật Prompting nâng cao tăng chất lượng output AI phần 3: step-back prompting và Chain of Thought (CoT)

Kỹ thuật Prompting nâng cao tăng chất lượng output AI phần 3: step-back prompting và Chain of Thought (CoT)

Ngoài ra, OpenAI thu hồi bản cập nhật GPT-4o sau phản ứng dữ dội từ người dùng

Welcome, Growth Pioneers! 🚀

Vừa qua, Google đã phát hành tài liệu dài 68 trang, trong đó cập nhật mới nhất về các kỹ thuật prompt engineering từ cơ bản để nâng cao, có thể áp dụng trong rất nhiều các tác vụ khác nhau, từ việc đơn giản như truy vấn thông tin, suy luận, giải thích tới code hay thậm chí là các system prompt để làm việc với agent, tạo bot tự động, xây ứng dụng AI,… Và toàn bộ tài liệu này đã được mình tổng hợp lại các kỹ thuật chính theo hướng thực chiến – dễ tiếp cận – dùng được ngay.

Sau khi tung ra bản cập nhật mới cho mô hình GPT-4o với kỳ vọng cải thiện trí tuệ và tính cách của ChatGPT, OpenAI đã vấp phải làn sóng chỉ trích từ người dùng vì chatbot trở nên quá "nịnh hót" và dễ dãi. Trước áp lực, công ty buộc phải thu hồi bản cập nhật, đồng thời công bố kế hoạch điều chỉnh mô hình và tăng khả năng cá nhân hóa trải nghiệm.

__________________________________

Trong bản tin hôm nay, bạn sẽ được khám phá:

• Kỹ thuật Prompting nâng cao tăng chất lượng output AI phần 3: step-back prompting và Chain of Thought (CoT)

• OpenAI rollback bản cập nhật GPT-4o gây lỗi ChatGPT quá dễ dãi và xu nịnh

TIPS

Kỹ thuật Prompting nâng cao tăng chất lượng output AI phần 3: step-back prompting và Chain of Thought (CoT)

Vừa qua, Google đã phát hành tài liệu dài 68 trang, trong đó cập nhật mới nhất về các kỹ thuật prompt engineering từ cơ bản để nâng cao, có thể áp dụng trong rất nhiều các tác vụ khác nhau, từ việc đơn giản như truy vấn thông tin, suy luận, giải thích tới code hay thậm chí là các system prompt để làm việc với agent, tạo bot tự động, xây ứng dụng AI,… Và toàn bộ tài liệu này đã được mình tổng hợp lại các kỹ thuật chính theo hướng thực chiến – dễ tiếp cận – dùng được ngay. Và ở phần 2 mình đã chia sẻ về kỹ thuật Role Prompt, Contextual Prompt và System Prompt

Tiếp nối về chuỗi bài hướng dẫn này, phần 3 mình sẽ chia sẻ với các bạn về các kỹ thuật prompt đặc thù khác ra là step-back prompting và Chain of Thought (CoT),  cũng như tóm tắt đặc điểm, vai trò và cả các ứng dụng cụ thể của nó để dễ áp dụng nhé.

Nguồn:Techcrunch

Step-back Prompting

Step-back prompting là kỹ thuật để cải thiện hiệu suất của các model LLM bằng cách hướng dẫn mô hình trước tiên xem xét một câu hỏi chung liên quan đến nhiệm vụ cần thực hiện và sau đó mới đưa câu trả lời cho câu hỏi chung đó vào một prompt tiếp theo cho nhiệm vụ cụ thể.

Nghe có vẻ khó hiểu ha, một cách nôm na thì thay vì prompt ra lệnh trực tiếp, đầu tiên sẽ đặt một câu hỏi mang tính phổ quát hoặc trừu tượng hơn để model trả lời, sau đó dùng chính câu trả lời đó của AI làm context để giải quyết vấn đề cụ thể mà người dùng muốn.

Chính vì vậy nên tên gọi của kỹ thuật này chính là Step Back, nghĩa là lùi lại nhìn toàn cảnh trước rồi mới đi sâu vào chi tiết. Mục đích của bước lùi này chính là để LLM kích hoạt kiến thức nền tảng hoặc các quy trình suy luận có liên quan trước khi giải quyết vấn đề cụ thể. Bằng cách khảo sát các nguyên tắc rộng hơn và căn bản hơn trong chủ đề đó, LLM có thể tạo ra các phản hồi chính xác và sâu sắc hơn.

Về mặt kỹ thuật, Step-back prompting sẽ khuyến khích model tư duy phản biện và áp dụng kiến thức của chúng theo những cách mới và sáng tạo hơn. Kỹ thuật này sẽ giúp giảm thiểu sự thiên vị trong kiến thức của LLM bằng cách "nén" nhiều kiến thức hơn từ các tham số của LLM so với khi prompt trực tiếp.

Step-back prompting sẽ phù hợp để:

  • Cải thiện khả năng suy luận đối với các task phức tạp.

  • Kích thích kiến thức rộng hơn

  • Giảm bias thông qua việc tập trung vào nguyên tắc trước khi đi vào chi tiết.

Cấu trúc của kỹ thuật Step-back Prompting:

Nhìn chung / một cách tổng quát, X là gì?

Sử dụng X, giải quyết vấn đề Y.

Tình huống 1:

Nhìn chung, những yếu tố nào quyết định liệu một thành phố ven biển có bị ngập lụt trong cơn bão hay không?​

Nguồn: Tinhte

Sử dụng các yếu tố đó, hãy đánh giá rủi ro lũ lụt cho Đà Nẵng, Hội An, khi có cơn bão cấp 3.​

Nguồn: Tinhte

Prompt Chain of Thought (CoT)

Một cách ngắn gọn, cấu trúc của kỹ thuật này là trình bày vấn đề hoặc câu hỏi, sau đó thêm chi tiết rõ ràng để lý giải từng bước, hoặc cung cấp thí dụ dạng few-shot prompt để diễn giải đầy đủ quá trình suy luận.

Hiện tại các chat bot như ChatGPT 4o, Claude Sonnet 3.7 hay Gemini 2.5 đều có thể tự tạo ra CoT ngay cả khi người dùng nhập prompt zero shot vào, tuy nhiên việc hiểu được bản chất hoạt động và tạo yêu cầu rõ ràng bằng kỹ thuật CoT vẫn mang lại lợi ích đáng kể trong các tình huống phức tạp, cần độ chính xác cao hoặc cần một lộ trình rõ ràng.

Chain of Thought (CoT) prompting là một kỹ thuật để cải thiện khả năng suy luận của model LLM bằng cách hướng dẫn mô hình tạo ra các bước suy luận trung gian, giúp nó đưa ra các câu trả lời chính xác hơn. Chúng ta cần kết hợp CoT với few-shot prompting để có kết quả tốt hơn đối với các nhiệm vụ phức tạp hơn đòi hỏi suy luận trước khi trả lời. CoT hoạt động bằng cách yêu cầu LLM giải thích từng bước thay vì chỉ trả về câu trả lời. Thí dụ, khi giải một bài toán, trong prompt sẽ yêu cầu rằng "Hãy nghĩ từng bước một".

Ưu điểm của CoT:

  • Dễ thực hiện nhưng rất hiệu quả.

  • Hoạt động tốt với các LLM phổ quát (không cần tinh chỉnh).

  • Có tính giải thích cao. Chúng ta có thể kiểm tra các phản hồi của LLM và xem các bước suy luận đã được thực hiện để phát hiện lỗi nếu có.

  • Cải thiện tính hiệu quả khi chuyển đổi giữa cácmodel khác nhau. Hiệu suất prompt của bạn sẽ ít bị ảnh hưởng hơn khi dùng các LLM khác nhau so với khi prompt không sử dụng CoT.

  • Có thể hữu ích cho nhiều trường hợp sử dụng, chẳng hạn như tạo code (chia yêu cầu thành các bước nhỏ và ánh xạ chúng tới các dòng code cụ thể) và tạo dữ liệu tổng hợp.

  • Nói chung, bất kỳ nhiệm vụ nào có thể giải quyết bằng cách "nói rõ từng bước" đều là thích hợp sử dụng CoT. Nếu bạn có thể giải thích các bước để giải quyết một vấn đề nào đó, hãy thử CoT để chạy hàng loạt những tác vụ đó.

Nhược điểm của CoT:

  • Prompt thường dài và phức tạp do chứa nhiều thông tin, chỉ dẫn.

  • Đầu ra thường dài, do đó cũng tiêu tốn nhiều token đầu ra, dẫn tới chi phí sử dụng cũng cao hơn, thời gian xử lý lâu hơn.

Một lưu ý chính là CoT sẽ rất mạnh nếu kết hợp nó với Few shot Prompting thay vì chỉ dừng lại ở câu Hãy suy nghĩ từng bước. Cách này đặc biệt có ích khi muốn tiết kiệm số token đầu ra, để output ngắn gọn hơn, giới hạn suy luận của model lại, không quá lan man. Đặc biệt phù hợp khi dùng CoT để code.

Prompt CoT sẽ phù hợp với:

  • Tạo code: CoT cực kỳ thích hợp để cùng với model Code.

  • Các tác vụ số học

  • Các lý luận thông thường lẫn lý luận tượng trưng trong đó các bước trung gian đóng vai trò quan trọng đối với độ chính xác của đầu ra.

  • Cải thiện khả năng diễn giải.

Cấu trúc cơ bản của CoT:

Vấn đề X

Hãy suy nghĩ từng bước một X1, X2, X3,… để đạt mục đích Y

Tình huống 1:

Hai thành phố cách nhau 208,5 km, một xe máy đi từ thành phố A đến thành phố B với vận tốc là 38,6 km/h. Một ô tô khởi hành cùng một lúc với xe máy đi từ thành phố B đến thành phố A với vận tốc 44,8 km/h.

a) Hỏi xe máy và ô tô gặp nhau lúc mấy giờ biết hai xe khởi hành lúc 8 giờ 30 phút

b) Chỗ gặp nhau cách thành phố A bao nhiêu km?

Hãy suy nghĩ từng bước để tìm đáp án

Nguồn: Tinhte

OPENAI

OpenAI rollback bản cập nhật GPT-4o gây lỗi ChatGPT quá dễ dãi và xu nịnh

Nguồn: congngheviet

Sau khi tung ra bản cập nhật mới cho mô hình GPT-4o với kỳ vọng cải thiện trí tuệ và tính cách của ChatGPT, OpenAI đã vấp phải làn sóng chỉ trích từ người dùng vì chatbot trở nên quá "nịnh hót" và dễ dãi. Trước áp lực, công ty buộc phải thu hồi bản cập nhật, đồng thời công bố kế hoạch điều chỉnh mô hình và tăng khả năng cá nhân hóa trải nghiệm.

Tuần trước, OpenAI công bố bản cập nhật mới dành cho GPT-4o – mô hình ngôn ngữ đang vận hành hàng trăm triệu phiên trò chuyện trong ChatGPT. Theo công bố, bản cập nhật nhằm mục tiêu làm cho mô hình trở nên thông minh hơn và có cá tính hơn, tạo cảm giác gần gũi hơn với người dùng.

Tuy nhiên, ngay sau khi bản cập nhật được triển khai, cộng đồng người dùng đã nhanh chóng phát hiện ChatGPT trở nên quá “nịnh hót”, luôn đồng tình và thiếu trung thực, gây ra cảm giác không thoải mái. Hiện tượng này được gọi là AI sycophancy – hành vi “xu nịnh” một cách máy móc của trí tuệ nhân tạo.

Cuối tuần qua, CEO Sam Altman xác nhận nhóm phát triển đã ghi nhận vấn đề và đang điều tra nguyên nhân. Đến hôm nay, OpenAI đã chính thức thu hồi bản cập nhật GPT-4o trên toàn bộ hệ thống cho người dùng miễn phí, đồng thời đang tiến hành gỡ bỏ dần cho người dùng trả phí.

Trong bài blog đăng tải cùng ngày, OpenAI giải thích rõ điều gì đã xảy ra, tại sao điều đó lại quan trọng và cách họ sẽ xử lý tình trạng “AI nịnh bợ” trong tương lai.

“Bản cập nhật GPT-4o tuần trước hướng tới việc cải thiện tính cách mặc định của mô hình, giúp cuộc trò chuyện trở nên trực quan và hiệu quả hơn. Nhưng chúng tôi đã đặt quá nhiều trọng tâm vào phản hồi ngắn hạn và không tính đến cách người dùng tương tác lâu dài với ChatGPT. Hệ quả là mô hình trở nên quá dễ chịu, nhưng thiếu tính xác thực.”

OpenAI thừa nhận rằng một hành vi mặc định duy nhất khó lòng phù hợp với 500 triệu người dùng toàn cầu, và phản hồi kiểu nịnh hót có thể gây khó chịu hoặc khiến người dùng mất niềm tin.

Trong thời gian tới, công ty sẽ:

  • Cải tiến kỹ thuật đào tạo cốt lõi và lời nhắc hệ thống để mô hình không rơi vào trạng thái “nịnh bợ”.

  • Thêm rào chắn kiểm soát tính trung thực và minh bạch trong phản hồi.

  • Mở rộng thử nghiệm người dùng và lắng nghe phản hồi trực tiếp trước khi triển khai chính thức.

  • Nâng cao hệ thống đánh giá và tiếp tục nghiên cứu các vấn đề khác, không chỉ dừng lại ở sycophancy.

  • Cho phép người dùng cá nhân hóa phản hồi theo thời gian thực và chọn từ nhiều kiểu tính cách mặc định.

  • Khám phá cách tích hợp phản hồi dân chủ rộng rãi hơn để thiết lập hành vi chung của ChatGPT.

Đây là lần đầu tiên một bản cập nhật hành vi mô hình lại gây ra phản ứng mạnh mẽ đến vậy từ cộng đồng, cho thấy sự phổ biến ngày càng lớn của ChatGPT và trách nhiệm đi kèm của OpenAI trong việc điều chỉnh tính cách AI theo hướng phù hợp, chân thực và có ích.

Cảm ơn bạn đã đồng hành cùng TAG!
Hẹn gặp lại bạn trong bản tin tuần sau – nơi chúng ta sẽ không chỉ dùng AI, mà còn làm chủ cuộc chơi.

Trân trọng,
The AI Growth Team❤️ 

Bạn nghĩ nội dung hôm nay thế nào? Trước khi bạn rời đi, chúng tôi rất mong muốn biết ý kiến của bạn về bản tin hôm nay để giúp TAG cải thiện trải nghiệm nội dung cho bạn.

Login or Subscribe to participate in polls.