记录一次掉盘 群联PS3111-S11-13 + 长江CA7AG64A0A
part 1
终于 7×24 运行的它掉盘了。
型号:速柏 CS500 (89块钱480G要什么自行车)
方案:群联PS3111-S11-13 + 长江CA7AG64A0A
part2
参考链接:
终于 7×24 运行的它掉盘了。
型号:速柏 CS500 (89块钱480G要什么自行车)
方案:群联PS3111-S11-13 + 长江CA7AG64A0A
参考链接:
前两天尝试写一个给jellyfin服务器添加演员信息的程序,读issue和参考别人的代码的时候发现很多验证的步骤比较过时,故自己写一点留档参考。
swagger api文档 http://localhost:8096/api-docs/swagger
在请求头添加验证 https://gist.github.com/nielsvanvelzen/ea047d9028f676185832e51ffaf12a6f
服务端创建api密钥 http://localhost:8096/web/#/dashboard/keys
userId获取 http://localhost:8096/web/#/dashboard/users 点击你想获得userId的用户并在url的query部分查看
例如 http://192.168.2.202:8096/web/#/dashboard/users/profile?userId=99e7058d92d34f74bd369728f432a0e2
1 | import requests |
注意: 有些使用DD重装脚本安装的Debian bookworm 没有开启 bookworm-security
源,需要手动开启。
Ubuntu发行版的终端广告(Bug #1950692)和snap(Mint Blog中的观点)一直是令人诟病的内容,也是我切换到Debian的原因。
但是,今天还是要注册一下Ubuntu Pro,毕竟还有一些以前安装的机器在运行着已经EOL的Ubuntu版本,需要安装一些安全补丁。
打开Ubuntu Pro的网站 https://ubuntu.com/pro
点击Get Ubuntu Pro now并选择Myself,点击Register登录帐号确认。
获取Token,复制下面的命令。
这里以**Ubuntu 18.04 LTS (Bionic Beaver)**为例:
在查看Python代码中,经常会看到类似这样的代码:
1 | # module.py |
这里直接运行文件可以获得输出内容:
1 | $ python3 module.py |
现在我们在另一个文件中将module.py
作为模块导入并运行:
1 | # main.py |
1 | $ python3 main.py |
我们修改module.py
文件,在测试中我们经常会这么写:
1 | # module.py |
分别运行module.py
main.py
:
1 | Traceback (most recent call last): |
来自GPT的错误分析:您遇到的错误消息是由于 inspect.ArgSpec
类在 Python 3.11 中被移除了。ArgSpec
类在 Python 3.5 中已被弃用,并在 Python 3.11 中被移除。
当前使用的sqlacodegen版本为2.3.0.post1。是pypi上面的默认release版本。
编辑 .venv/lib/python3.11/site-packages/sqlacodegen/codegen.py
找到from inspect import ArgSpec
替换成from inspect import FullArgSpec as ArgSpec
或者升级sqlacodegen版本到3.0.0 rc3以上。来源:https://github.com/agronholm/sqlacodegen/issues/239#issuecomment-1871370700
翻译:GPT
在人工智能和自然语言处理领域,大型语言模型已经成为焦点。这些模型由先进的算法和海量数据集驱动,能够理解和生成类似人类的文本。然而,在大型语言模型的领域中,有一个重要的区别——流式模型与非流式模型。理解这一差异至关重要,尤其是在涉及实时应用时。
大型语言模型,如GPT-3及其后继者,改变了我们与技术互动的方式。它们使得聊天机器人、虚拟助手和内容生成引擎变得更加对话化、信息化和上下文感知。但是,为了有效地利用这些模型,理解流式与非流式模型的范式非常重要。
首先,让我们了解非流式大型语言模型。这些模型类似于传统的文本生成器,需要在生成响应之前提供整个输入。换句话说,它们将输入作为一个整体进行处理,然后生成相应的输出。这种方法适用于实时交互不是主要关注点的任务。
例如,当你在搜索引擎中输入查询时,搜索引擎通常会使用非流式模型来处理你的查询并返回搜索结果。对于大多数用户来说,接收搜索结果的延迟可以忽略不计,因此实时处理不是首要任务。
另一方面,流式大型语言模型旨在处理连续的、实时的或互动的输入。它们以流式方式处理数据,使其能够在输入到达时实时提供响应。这使得它们非常适合低延迟和即时互动至关重要的应用。