# 安装python

# 下载 python

下载地址:https://www.python.org/downloads/

# 安装依赖

yum install libffi-devel readline-devel gcc make patch gdbm-devel openssl-devel sqlite-devel readline-devel zlib-devel bzip2-devel 
1

# 解压并安装

本例安装到/data/python3目录

tar xvf Python-3.12.1.tar.xz
cd Python-3.12.1
./configure --prefix=/data/python3 --enable-optimizations \
  --enable-option-checking=fatal \
  --enable-shared \
  --with-system-expat
make -j8 && make install

mv /usr/bin/python /usr/bin/python_old  #备份老的python
ln -s /data/python3/bin/python3.12 /usr/bin/python3 #建立新的软连接
ln -s /data/python3/bin/pip3.12 /usr/bin/pip3 #建立新的软连接
1
2
3
4
5
6
7
8
9
10
11

# 更新环境变量

在ld.so.conf文件中加入 /data/python3/lib

vi /etc/ld.so.conf
/sbin/ldconfig -v #刷新
python -V #测试python3正常
pip -V #测试pip3正常
1
2
3
4

# 更新pip

pip install --upgrade pip -i https://mirror.baidu.com/pypi/simple ##更新pip
1

# 全局修改pip的镜像源

pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/
1

# 安装conda

# 下载conda

官网下载地址:https://www.anaconda.com/download#downloads mini版本的下载地址:https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/

# 安装及使用

本例安装到/data/miniconda3目录

sh Miniconda3-py39_24.1.2-0-Linux-x86_64.sh

# 加入路径
echo "export PATH=/data/miniconda3/bin:$PATH"  >> /etc/profile
source /etc/profile

#查看版本
conda --version

# 列出所有环境
conda env list

# 创建一个名称为xiong的python为3.8版本的虚拟环境
conda create -n xiong python=3.8

# 激活名称为xiong的环境
conda activate xiong

# 关闭环境
conda deactivate

# 删除名称为xiong的已有环境
conda remove -n xiong --all
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23

# 设置默认不激活conda的base

编辑.condarc文件(位于用户的主目录下),添加以下内容 注意:.condarc文件是YAML格式的,因此缩进很重要。

auto_activate_base: false
1

# 设置默认登录激活的环境

在.bashrc或.bash_profile中(位于用户的主目录下)添加以下内容

conda activate xiong
1

# 安装ocr识别服务

本例使用飞桨paddlepaddle的ocr识别服务

python -m pip install paddlepaddle==2.5.0
python -m pip install paddleocr
1
2

# 安装错别字识别服务

python -m pip install pycorrector
python -m pip install torch
python -m pip install transformers
python -m pip install datasets
1
2
3
4

# 安装语音转文本服务

python -m pip install openai-whisper
python -m pip install setuptools-rust
1
2

# 安装web服务

python -m pip install fastapi
python -m pip install uvicorn
1
2

# 编译安装ffmpeg

# 安装依赖

yam install yasm lame nasm fribidi-devel libtheora-devel  libvorbis-devel
1

# 编译安装x2564

下载地址: https://www.videolan.org/developers/x264.html

tar xvf x264-master.tar.bz2 
cd x264
./configure --enable-shared 
make -j4 && make install
1
2
3
4

# 编译安装x2565

下载地址: http://ftp.videolan.org/pub/videolan/x265/

tar xvf x265_3.2.tar.gz
cd x265_3.2/build/linux
./make-Makefiles.bash
1
2
3

# 编译安装 freetype

下载地址: https://download.savannah.gnu.org/releases/freetype/

tar xvf freetype-2.13.2.tar.xz
cd freetype-2.13.2
./configure --disable-static
make -j4 && make install
1
2
3
4

# 编译安装 fribidi

下载地址: https://github.com/fribidi/fribidi/

tar xvf fribidi-1.0.14.tar.xz 
cd fribidi-1.0.14
./configure --enable-shared
make -j4 && make install
1
2
3
4

# 编译安装 libass

下载地址: https://github.com/libass/libass

tar xvf libass-0.17.2.tar.gz 
cd libass-0.17.2
./configure 
make -j4 && make install
1
2
3
4

# 编译安装 lame

下载: https://sourceforge.net/projects/lame/files/lame/

tar zxvf lame-3.100.tar.gz
cd lame-3.100
./configure
1
2
3

# 编译安装 ffmpeg

下载地址: https://ffmpeg.org/download.html

tar xvf ffmpeg-7.0.tar.xz
cd ffmpeg-7.0
./configure --prefix=/data/ffmpeg --enable-static  --enable-shared 
make -j4 && make install
1
2
3
4

其它参考参数: --enable-libass
--enable-gpl
--enable-libfreetype
--enable-libmp3lame
--enable-libtheora
--enable-libvorbis
--enable-libx264
--enable-libx265
--enable-nonfree
--enable-postproc
--enable-bzlib
--enable-libxvid
--enable-zlib
--disable-debug

# 常见问题

# 设置代理上网

针对不能上网的情况,需设置本地代理才能下载 第一步:设置proxy

export http_proxy=http://202.202.43.5:3128
export https_proxy=http://202.202.43.5:3128
1
2

第二步:设置.condarc文件 例如root用户的condarc文件,需加入代理

vi /root/.condarc

# 在文件中加入以下内容
proxy_servers:
  http: http://202.202.43.5:3128
  https: http://202.202.43.5:3128
1
2
3
4
5
6

错误1:ImportError: libGL.so.1: cannot open shared object file: No such file or directory 解决方案是安装 mesa-libGL.x86_64

yum install mesa-libGL.x86_64
1

错误2:"HTTPSConnectionPool(host='huggingface.co', port=443): Max retries exceeded 解决方案是使用国内镜像去执行程序,例如执行 x.py

HF_ENDPOINT=https://hf-mirror.com python x.py
1

错误3:conda: error: argument COMMAND: invalid choice: 'activate' 解决方案是重新执行conda.sh

source /data/anaconda/etc/profile.d/conda.sh
1

错误4:CondaError: Run 'conda init' before 'conda activate' 解决方案是执行

source ~/.bashrc
1

# 安装 ollama

假设安装目录为: /data/ollama

# 下载并安装

# 下载到指定目录
curl -L https://ollama.com/download/ollama-linux-amd64 -o /data/ollama/ollama
chmod +x /data/ollama/ollama

# 创建执行用户
useradd -r -s /bin/false -m -d /data/ollama ollama

chown ollama:ollama /data/ollama
1
2
3
4
5
6
7
8

# 创建服务文件

vi /etc/systemd/system/ollama.service
1
点击查看ollama.service内容
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="OLLAMA_HOST=0.0.0.0" #设置服务监听的主机地址
Environment="OLLAMA_NUM_PARALLEL=100" #单模型并发请求的数量
Environment="OLLAMA_MAX_LOADED_MODELS=10" #多模型同时加载的模型数量
Environment="OLLAMA_KEEP_ALIVE=10m" #设置模型加载到内存中保持10分钟,如果保留1小时则为: 1h(默认情况下,模型在卸载之前会在内存中保留5分钟)
Environment="OLLAMA_MODELS=/data/ollama/models" #模型存放路径
ExecStart=/data/ollama/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

# 启动服务并设置为开机启动

systemctl daemon-reload
systemctl start ollama.service

# 开机启动
systemctl enable ollama
1
2
3
4
5

# 查看启动错误

journalctl -e -u ollama
1

# 更新 ollama 主程序

curl -L https://ollama.com/download/ollama-linux-amd64 -o /data/ollama/ollama
chmod +x /data/ollama/ollama
1
2

# 删除本地不需要的模型以节约硬盘空间

ollama rm 模型名称
1

# 卸载 ollama

systemctl stop ollama
systemctl disable ollama

rm /etc/systemd/system/ollama.service

# 删除二进制执行文件
rm $(which ollama)

# 删除安装目录
rm -r /data/ollama

# 删除用户和组
groupdel ollama
userdel ollama
1
2
3
4
5
6
7
8
9
10
11
12
13
14