winkz

重新编译Nginx启用HTTP/3协议

LLAMA-30B-QA(1)

运行环境RTX4090 24GTORCH 2.0.1CUDA 11.7CUDNN 8.6.532G DDR5 内存+ 80G SWAP初阶问答Sally-Anne test心智理论由Premack & Woodruff (1978) 首次命名,他们将其定义为 “the ability to

使用bert提取词向量

为了方便记忆做一下存档代码from transformers import BertTokenizer, BertModelimport torch# 加载中文 BERT 模型和分词器model_name = "bert-base-chinese" tokenizer = Be

推荐技术栈

推荐系统技术栈总体技术流程 TODO模型构建过程实体抽取NER任务+BERT FINE-TUNE模型选取:BERT-BiLSTM-CRF&&ALBERT-BiLSTM-CRF备选模型&&消融实验对象:HMM隐马尔科夫场模型LSTM-CRF 长短期记忆+条件随机场BiL

Springboot实现后端打包压缩包功能

需求前端发送请求数组,后端返回请求集合的压缩文件。步骤梳理#render3601889927 {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#render3601889927 .error

Gin框架分页的简洁实现

Gin的框架实在是太简洁了,连分页都没有。还好我们有GORM,GORM提供了一种scope方法,可以把一部分数据库请求封装起来。新建utils/pagination文件简单封装一下分页实现。package utilsimport ("errors""gorm.io/go

节前思绪之二

博客开张也有四年了,20年初做平台迁移的时候,把markdown记录毁掉了,可惜了1819年写的几篇文章,也没做归档。从热衷于尝试各个平台的我现在对平台切换也逐渐变得无动于衷了,也许最后的归宿都是wordpress吧。halo这个平台可以说刚刚好,也懒得换了,唯一一点不好就是默认主题没法在文章中插入

梦之二

梦之一

Segformer环境配置

我的环境介绍RTX3060UBUNTU22.04cuda11.5cudnn8.4.1 for cuda11.x原文链接:SegFormerRTX30系列不支持cuda10.x驱动由于我最后才发现遇到了timm版本的问题,所以我不知道11.3版本cuda是否存在这个问题但是mmseg最高支持到11,5