ubuntu安装nginx与配置
命令行安装:
1sudo apt-get install nginx
安装好的文件位置:
1234/usr/sbin/nginx:主程序/etc/nginx:存放配置文件/usr/share/nginx:存放静态文件/var/log/nginx:存放日志
查找Nginx启动文件路径
1find / -name nginx.conf
查询nginx进程
1ps -ef | grep nginx
重启nginx
1sudo nginx -s reload
查看是否能够访问:
1浏览器中填localhost
我的配置文件:
我的配置文件位置:
1/etc/nginx/conf.d/**.conf
我的静态网页的位置:
12/var/www/** html中加载的js之类的文件夹和index.html在一个文件夹中
配置文件内容:
123456789101112131415161718server { listen 80; server_name #你的网站IP或****.com; location /www1 { alias /var ...
深度学习卷积反卷积特征图计算
2D卷积
3D卷积
2D反卷积
Vue项目目录
123456789101112131415161718192021project|-- node_modules|-- public |-- favicon.ico |-- index.html|-- src |-- assets # 存放各种静态文件,比如图片 |-- logo.png |-- components # 存放公共组件 |-- HelloWorld.vue |-- router # vue-router路由文件。需要引入src/views文件夹下的.vue,配置path、name、component。 |-- views # 用于存放我们写好的各种页面,比如Login.vue,Home.vue。 App.vue # 是主vue模块,主要是使用router-link引入其他模块,App.vue是项目的主组件,所有的页面都是在App.vue下切换的。 main.js ...
Domain Adaptation without source data阅读笔记
介绍该论文解决的问题:
没有源数据集,只有在源数据集上训练的模型,怎样进行迁移学习
如何判断某个target data为哪个class
target data没有ground truth时,如何解决训练时发生分类偏移的情况
针对上面三个问题,论文提出了对应的解决方法
设计新的网络结构
设计APM模块对target data进行分类
设计Confidence-based filtering来制约
下面介绍根据这三个解决方法进行介绍
论文主要内容设计新的网络结构结构
这个网络主要有三部分:pre-trained model,trainable model和APMpre-trained model:在source data上预训练好的模型,在整个训练过程中不变trainable model:论文中要在target data上训练的模型,初始化时:APM:存放每个类别的代表样本,当有样本送到网络中时,与里面的代表样本计算距离,然后打分,打分高的类别就贴上对应的label
训练过程
初始化trainable model,参数Fs->Ft,Cs->Cs2t,Cs->Ct
...
el-card仿照Edge主页标签
前几天有个需求,写一个搜索栏,下面需要附上常用搜索的标签,然后发现Edge主页的样式很好看,于是便实现了一个类似的。Edge主页:
自己实现的:
实现布局整体的布局如下:
实现的时候,父组件:Search.vue,search-bar组件:SearchItem.vue,热点话题组件:SearchHot.vue
实现代码Search.vue123456789101112131415161718192021222324252627282930313233343536373839<template> <div class="box"> <div class="searchBox"> <search-item></search-item> </div> <div class="searchBox"> <SearchH ...
pytorch深度学习代码阅读(3):其他
用到的函数
判断矩阵是否全为或者含有某元素
1234567891011>>> a2array([[0, 2, 3, 4], [2, 3, 4, 5], [3, 4, 5, 6], [4, 5, 6, 7]])#判断矩阵中是否有0元素>>> np.any(a2 == 0)True#判断是否是0矩阵>>> np.all(a2 == 0)False
python打乱list中元素顺序
123import randoma = [1,2,3,4,5]random.shuffle(a)
对文件重命名
1os.rename(oldname,newname)
删除list1中所有在list2中的元素
1return [x for x in list1 if x not in list2]
pytorch深度学习代码阅读(1):数据加载和预处理
下面是已经阅读的代码:
Unet实现多期相肝脏肿瘤分割
Unet实现多期相肝脏肿瘤检测数据加载
np.transpose()使用PIL的Image.open()打开图片,得到的格式是HWC,不能直接使用,需要转换为CHW格式。其中C:channel通道,如:RGB通道;W图片的宽度;H图片的高度。
12img = Image.open(img_path)img_sample = np.transpose(np.asarray(img,np.float32)/255.0,[2,0,1]) # HWC ==> CHW
np.asarray()将Image得到的数据转为numpy的数组形式
数据预处理
图片归一化上面使用/255.0进行归一化,归一化不会改变图像本身的信息存储,对于后续的神经网络或者卷积神经网络处理有很大的好处。尤其对于医学图像处理,可以抵抗几何变换的攻击,通过归一化减小医学图片由于光线不均匀造成的干扰。
图像裁剪图像作为numpy的数组后,可以直接对数组进行裁剪来获得裁剪后的图像数据。
1img = img[2:10,2:10]
图像旋转
12np ...
pytorch深度学习代码阅读(0):总论
这几天进入实验室后,开始阅读实验室学姐的一份代码。刚到手的时候像一个烫手的山芋,不知道从哪里下手,而将整个项目的代码阅读完之后,发现在这个过程中能学到很多东西。于是便想将整个过程记录下来,便于学习。
在阅读前不能傻乎乎的埋头就开始一行一行读。首先应该先对代码进行分块。粗略的说,可以分成四块:
数据加载和预处理
神经网络实现
训练网络
其他(工具,配置文件,过程记录等)
数据加载和预处理训练神经网络最重要的就是数据。数据预处理包括下面几点:
实现一个Dataset加载自己的数据为了使用DataLoader加载数据。我们需要自己实现一个Dataset对数据处理。对数据的一些预处理,如:裁剪、拉伸、旋转、镜像等处理,都是在这个模块中实现。在看这个模块的时候主要看下面几个函数:
__init__(self,prams):初始化函数,prams是用户自己传入的参数,像文件路径啊,裁剪时图片的大小呀之类的。主要是对用到的变量初始化。
__getitem__(self, index):DataLoader通过调用Dataset的这个函数来读取数据,其中index是指调用哪个数据。一般在这个函 ...
Ubuntu服务器常用指令(进程,显卡,文件传输)
最近使用实验室的服务器跑代码,这里记录使用过程中用到的一些指令持续更新,有用到的指令或者方法都会放到这里
进程相关12345ps -aux #查看进程号ps -aux | more #全部查看ps -ef | grep mysql #查看mysql的进程ps -eo pid,lstart,etime | grep 3306 # 查看3306启动时间和运行时间kill 3306 #杀掉进程号3306
添加 grep是为了根据关键字过滤
123ps -aux | grep username # 查看用户username的进程信息ps -aux | grep nvidia # 查看程序 nvidia的进程信息ps -aux | grep terminal # 查看terminal 的进程信息
显卡相关1nvidia-smi # 查看显卡信息
文件传输下载从服务器向本地下载12345# 从服务器下载文件到本地中scp username@servername:/path/filename /loc ...