Anaconda的安装完成后在“Anaconda prompt”中,采用命令行去创建虚拟环境。
一直下一步
创建虚拟环境conda create -n 名称 python=版本
示例:
conda create -n py38 python=3.8
激活当前环境
conda activate py38
查看当前虚拟环境中已安装内容conda list
查看当前已有的虚拟环境conda env list
注意:如果用户名为中文,虚拟环境极有可能失败,网上有许多解决办法,几乎大同小异,BUT我没有一一尝试
可能出现的问题方法一:win10 更改中文用户名为英文_anaconda 中文用户名 win11系统中文名改英文名(win11、win10修改用户名)
参考以上⬆️
假如你的中文用户名是小明,为用户目录建立软链接,软连接名称为应为xiaoming,方法如下:
用管理员进入cmd格式下,
进入C:\Users 下,cd C:\Usersmklink /D xiaoming 小明
修改注册表
命令行中输入 regedit
打开注册表编辑器 分别进入如下 ...
问题:ubuntu使用su命令时提示认证失败
解决方法:报这个错误的原因是root用户默认锁定的,只要使用passwd命令重新设置下root密码即可
详细步骤:
1、命令行输入sudo passwd
2、根据提示修改密码
3、输入su
4、输入修改后的密码即可进入
鹦鹉家中养了多日的鹦鹉死了,难过许久,朋友说,可能它之前就有着病,倒是安慰我的借口,许是我每天熬夜扰了它的清闲,但无论怎样,它是死在我手上的,我对不住它,很是自责
心,如载重山。是时候,步出家门,去感受外面的世界,尽管悲伤难以消散,但也许在阳光下,心情能稍稍地得到舒缓。在外面的世界里,或许会有些许温暖,将我从自责中解脱出来。或许,在那片广袤天地间,我能够找到一丝释然,让那份愧疚慢慢随风飘散……
我熟悉这座城市的每一个角落,值得怀念,值得伤感,几次走到那些更加熟悉的街角,回忆仿佛在眼前展开,我能模糊地感受到过去的种种片段,它们如碎片般存在着。
然而,时光已逝,那些曾经的瞬间已成为过去。我们各自演绎着新的生活,迎来了新的故事,有些事也早已改变。尽管如此,我深信在这个城市的每个角落,都还保存着我们曾经的足迹,那些美好的瞬间不会轻易被遗忘。
我们无法回到过去,但我们仍然可以怀念,有些事我不说,但不代表我忘了。
城市是我们的见证者,而每一段经历都是我们生命中的重要组成部分。让我们在怀念与伤感中,继续前行,迎接更多未知的日子,为自己创造新的故事。
城市的傲慢城市傲慢,与我毫无瓜葛。我渐渐熟稔于这座 ...
“如果你不知道要去哪里,任何风向都不是顺风。” - 刘易斯・卡罗尔
前言家中摆烂许久,时间在我周围悄悄流逝,提醒着我需要行动。我意识到,对于下一个学期,我必须制定一个明确的规划来实现自己的目标和追求。这些被忽视的日子已经足够,我不能再让机会溜走。我决定要将自己重新激活,迎接新的挑战和机遇。
需要学习的科目专业课➡️java程序设计基础
➡️Linux实用技术
晚修➡️网页设计
其他➡️大英
➡️概率论
➡️离散
➡️模电
➡️马原
➡️形式与政策
……
规划😀暑假在项目组期间已经学完了javase,javaweb也基本学完,计划在下学期学完javaweb的同时在课堂上对之前的学习进行巩固
😄学习更多的linux知识
本学习的linux主要讲的是在linux环境下编写C语言,下学期会学习单片机,计划提前进行单片机的相关学习
💯背单词,过四级
在全球化背景下,英语成为国际交流和商务沟通的要工具,招聘中英语要求普遍。持英语四级证书提升就业竞争力。英语是获取国际前沿知识的途径,科研成果、技术和学术讨论多以英文发布。通过四级学习,轻松获取信息,扩展知识。
🐎练算法,打比赛
...
项目来源本项目来着github开源项目 Auto-PPT
感谢大佬的热心提供以及后续问题的解决
本地部署一般来说按照大佬的readme文档就可以了,下面将分享我的部署经历
创建虚拟环境python -m venv venv
激活虚拟环境venv\Scripts\activate
此处和大佬的readme文档不同
安装要求的python组件pip install -r requirements.txt
参数配置修改
在 config.ini 添加你的api key
修改./readconfig/mycofig.py 的base 绝对路径 使其为config.ini的文件夹路径
将config.ini中的api链接改为openai-proxy
这里也改
启动程序python application.py
发现部分包还未添加,如pptx,markdown,openai等
缺什么加什么就行,pip install xxx
下载Redis,开启
重新运行即可
记录chart-gpt的安装部署历程,此项目来自github开源项目
部署
首先,请先克隆此存储库:
git clone https://github.com/whoiskatrin/chart-gpt.gitcd chart-gpt
然后复制模板 cp .env.example .env 并 .env.example 添加您的 PaLM API 密钥:
BARD_KEY="your-api-key"
然后安装依赖项并启动开发服务器:
npm installnpm run dev# oryarnyarn dev
这将在 http://localhost:3000 启动开发服务器。
222
在 Windows
创建虚拟环境:
python -m venv venv
激活虚拟环境:
venv\Scripts\activate
HTTP 为什么不安全HTTP 是明文传输协议,通信过程和数据传输都没有进行加密,也没有验证通信双方的身份。因此通信过程很容易遭到劫持、窃听、篡改等。
使用 HTTP 协议传输信息时,就好比邮寄信件,邮件会经过很多快递员,但是每个快递员都可以拆开邮件并读取内容(因为 HTTP 是明文传输的),所以邮件的内容可以被轻易窃取。除此之外,快递员还可以伪造、篡改邮件,使得用户最终收到的邮件是假的。
HTTPS 如何保证安全HTTPS = HTTP + SSL/TLS,如今 SSL 已废弃,这里我们只讨论 HTTP + TLS。
为了解决 HTTP 协议的问题,HTTPS 引入了数据加密和身份验证机制。在开始传输数据之前,通过安全可靠的 TLS 协议进行加密,从而保证后续加密传输数据的安全性。
TLS 协议传输层安全性协议(Transport Layer Security,TLS)及其前身安全套接层(Secure Sockets Layer,SSL)是一种安全协议,目的是为了保证网络通信安全和数据完整性。
受 TLS 协议保护的通信过程,具有以下一种或几种属性:
连接是安全 ...
CodeGeeX的调研官方链接CodeGeeX
介绍CodeGeeX是一款基于大模型的全能的智能编程助手。它可以实现代码的生成与补全、自动添加注释、代码翻译以及智能问答等功能,能够帮助开发者显著提高工作效率。CodeGeeX支持主流的编程语言,并适配多种主流IDE。
CodeGeeX2-6B 更好支持中英文输入,支持最大 8192 序列长度
CodeGeeX支持哪些编程语言?CodeGeeX支持Python、Java、C++、JavaScript、Go等数十种常见编程语言。
CodeGeeX支持哪些IDE?CodeGeeX支持Visual Studio Code及IntelliJ IDEA、PyCharm、GoLand等JetBrains IDE。
现状目前第二代也作为插件,可在JetBrains IDE,Vs Code下载
计划计划找到开源的replite-code测试
问题
没有说如何训练的
没有公布如何微调,暂时不能提供微调
VisualGLM初体验
功能
文本命令输入:对上传的图片进行操作,比如描述,判断等功能
图片上传:上传识别的图片
图片和文本命令必须都要有内容
Temperature
Top P
Temperature
高温度(高探索性):
高温度值(例如1.0或更高)会使生成的文本更加探索性和多样化。
模型更倾向于均匀地分配概率给各个候选项,使得生成的文本更加多样化。
高温度值会减弱模型对于概率最高的候选项的偏好,从而增加其他候选项的出现概率。
生成的文本可能会包含更多的随机性和不确定性,有时可能会产生不太合理或不连贯的结果。
低温度(低探索性):
低温度值(例如0.1或更低)会使生成的文本更加确定性和精确性。
模型更倾向于选择概率最高的候选项,使得生成的文本更加一致和可靠。
低温度值会增强模型对于概率最高的候选项的偏好,减少其他候选项的出现概率。
生成的文本可能更加可预测和合理,但可能缺乏一些创造性和多样性。
Top-P在使用 “top-p” 采样时,模型会计算每个候选词的累积概率,并选择累积概率大于给定阈值(通常为 0.9 或 0.8)的最小集合。然后,从这个集合中按照概率分布 ...
大语言模型ChatGLM-6B系ChatGLM-6B基于通用语言模型(GLM)框架的开放中英双语语言模型,有62亿个参数。
ChatGLM-6B使用类似于ChatGPT的技术,针对中文QA和对话进行了优化。该模型针对大约 1T 的中英文语料库进行了训练,并辅以监督微调、反馈引导和人类反馈的强化学习。该模型只有大约 62 亿个参数,能够生成符合人类偏好的答案。
使用量化技术,用户可以在消费级显卡上本地部署(INT4 量化级别只需要 6GB 的 GPU 内存)。
ChatGLM-6B-INT4在 ChatGLM-6B 量化后的模型权重。
具体的,ChatGLM-6B-INT4 对 ChatGLM-6B 中的 28 个 GLM Block 进行了 INT4 量化,没有对 Embedding 和 LM Head 进行量化。量化后的模型理论上 6G 显存(使用 CPU 即内存)即可推理,具有在嵌入式设备上运行的可能。
ChatGLM-6B-INT4-QE具体的,ChatGLM-6B-INT4-QE 对 ChatGLM-6B 中的 28 个 GLM Block 、 Embedding 和 LM H ...