🥳JinzAi 上线 !!!👌 Ubuntu 安装ollama
JinzAi 上线 链接在此:JinzAi 除了在此文章处的链接外,在PC版的页面还在首页顶部菜单和常用页面处有链接。 Ubuntu离线安装ollama ollama官网 -> 下载 ->
技术学习
未读
🎶Git安装及配置简单记录
这玩意装过无数遍,还是会忘,还是记录一下吧。😶😶😶 1.下载安装Git软件 进入git官网,选择合适的版本进行下载,并一直默认安装(这样做普通使用没什么问题)。 2.GitBash命令行配置
技术学习
未读
😋使用软碟通(UltraISO)和diskpart安装操作系统(Windows 11)
1.软碟通制作硬盘映像 打开软碟通选择继续试用,点击文件 -> 打开 -> 选择ISO文件 -> 点击启动 -> 写入硬盘映像 注意:此处可能报错 文件太大无法分割,请忽略
技术学习
未读
🤦♀️Grafana 级联选择
1.什么是级联选择 如下图,需要在选择齿轮类型后,带出该齿轮类型下的机种,根据机种再该机种下的工程。。。 2.配置模板变量Variables 我也不懂为什么要叫模板变量,直接叫变量不好吗?🎃 配置如下图所示
技术学习
未读
😒CLOUDFLARE 初体验-Access 应用程序配置SSH
书接上回,既然我们已经可以访问我们的网站了,如果要通过ssh做日常服务器的维护又该如何呢? 话不多说,我们开整! 1.进入Access Applications Zero Trust -> Access -> Applications 点击 + Add An application 2.配置Appl
技术学习
未读
😒CLOUDFLARE 初体验-Tunnel和重定向规则配置
上次的教程已经实现了内网穿透,但是如果我们在本地服务器部署了一个网站,该如何让公网通过域名,比如:www.jinz.online 访问我们的网站呢? 还有比如在浏览器地址栏输入:jinz.online,它如何重定向到:http://www.jinz.online 或 https://www.jinz
技术学习
未读
😒CLOUDFLARE 初体验-内网穿透(NAT)
内网穿透,也即 NAT(Intranet penetration),是为了使具有某一个特定源 IP 地址和源端口号的数据包不被 NAT 设备屏蔽而正确路由到内网主机。 说人话:假设你在家里有一台搭建了Web服务器的电脑,使用的是私有IP地址192.168.1.100。由于你的网络是内网,外部的用户无
😘Ollama + FastGPT + OneApi 本地部署大模型知识库
打造私有化大模型和知识库在未来个人或者企业都具有相当的吸引力,没有人或者企业想把自己的私有数据公开,但是如何去利用有效地管理和检索,或者说利用大模型有效地发掘数据价值呢? 以下是一个例子,我的本地知识库有一个三国演义.txt文件(当然了,文件类别不限,可以是学习笔记,专业知识,行业内幕),假设我对三
🙌魔塔社区Llama3部署
注册魔塔社区账号然后和阿里云账号关联后会送一个还算可以的GPU环境。 1.模型下载 from modelscope import snapshot_download
from transformers import AutoModelForCausalLM, AutoTokenizer
# 下
❤️TensorFlow-Basic image classification
首先完整代码如下,接下来进行代码解析,并记录一些我学习到的地方。 import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
print(tf.__version__, tf.config.list_phys