网站地图官方微信:
网站首页 包装产品加工 眼镜盒 学校家具 削笔器 修正带 信封

当前位置: 首页 >

如何设计一条 prompt 让 LLM 陷入死循环?

核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。

然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。

它的特征就是:Prompt的输出又是一条指令。

也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。

如何设计一条 prompt 让 LLM 陷入死循环?

  • | 语雀后端从Node迁移到J***a说明了什么? |

    nodejs全栈,感触最深的是:开发人员心智负担实在太大了,...

    查看详情>>
  • | 有没有免费的语音转文字的软件? |

  • | 林志颖和韩寒的赛车技术如何? |

  • | 为何中国反复升级轰六轰炸机群? |

  • | 长期使用的大佬来说说,MacOS 真的比 Windows 稳定吗? |

  • | SONY 到底有多强大? |

  • | 在中国有多少开发者使用Rust编程语言? |

  • | 为什么有些NAS用户弄那么多硬盘? |

  • | 为什么 macOS 并不差,可市场总敌不过 Windows? |

  • | 你捡过最大的漏是什么? |

  • | 2025年小米su7 性价比很低了,为何还不更新改款? |

  • M2 Max,不插电直接开Pro Tools,一分钟以内可以...

    2025-06-21
  • 一定是后端好找工作。 哪怕后端团队都每天工作3小时摸鱼5小...

    2025-06-21
  • 第一:现在消费群体都要瓜不大,皮薄,瓤甜,富水,无籽。 这大...

    2025-06-21
  • 成都我去的少,不懂,就旅游过,我只说武汉。 还是一样,争取...

    2025-06-21

关注我们

添加微信好友,关注最新动态