博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
linux文件操作
阅读量:5929 次
发布时间:2019-06-19

本文共 803 字,大约阅读时间需要 2 分钟。

 1.linux文件操作

cat test.txt | head -n 100 查看开始100行

cat finalout.txt | head -n 100 | cut -d , -f 2   安装,分割各行,取第2个位置的数据

cat test.txt |sed 's/""//g' 查看下效果

cat finalout.txt | head -n 10 | cut -d , -f 2 按,切割

cat part_name_tmp.txt | cut -d \" -f 2 >part_name.txt 按“切割

cut -b 3 cut_ch.txt   按字节切割

 

cat test.txt|sed -i 's/""//g' 删除引号。    ?????有问题

sed -i 's/"//g' part_name.txt       ?????有问题

 

 

2.linux文件去重

 (1)两个文件的交集,并集

前提条件:每个文件中不得有重复行

1. 取出两个文件的并集(重复的行只保留一份)
cat file1 file2 | sort | uniq > file3
2. 取出两个文件的交集(只留下同时存在于两个文件中的文件)
cat file1 file2 | sort | uniq -d > file3
3. 删除交集,留下其他的行
cat file1 file2 | sort | uniq -u > file3
(2)两个文件合并
一个文件在上,一个文件在下
cat file1 file2 > file3
一个文件在左,一个文件在右
paste file1 file2 > file3
(3)一个文件去掉重复的行
sort file |uniq
注意:重复的多行记为一行,也就是说这些重复的行还在,只是全部省略为一行!
sort file |uniq –u
上面的命令可以把重复的行全部去掉,也就是文件中的非重复行!

转载地址:http://nqktx.baihongyu.com/

你可能感兴趣的文章
美国大数据科技独角兽Palantir获2000万美元融资
查看>>
智能家居十大必备功能 乐享真正智能生活
查看>>
Polar码引发舆论狂欢 5G标准远未定局
查看>>
一文读懂2016上半年ICT产业政策供给:过度与短缺
查看>>
备份和恢复数据的4个最佳实践
查看>>
TE SubCom携手Ciena共同支持开放式海底电缆网络
查看>>
容器网络:专为开发人员设计的SDN系统
查看>>
让座席管理工作听得见也看得着
查看>>
四部门发布第一批网络关键设备和网络安全专用产品目录
查看>>
河北省发改委取消2014年6个光伏发电项目建设计划
查看>>
Aop RealProxy 千年遇BUG
查看>>
迎接物联网时代!先看这8个重要提示
查看>>
从连踩5年坑到年营收2.7亿美元,SaaS独角兽靠这一手段实现逆转
查看>>
《Effective Debugging:软件和系统调试的66个有效方法》——第16条:使用专门的监测及测试设备...
查看>>
连接收入仅占3%,运营商准备好了物联网吗?
查看>>
选择合适的无线方案推进家居智能化进程
查看>>
云数据中心将推动过渡至400G 及140亿美元以太网交换机市场
查看>>
KPMG CIO调查报告:89%的CIO加大创新投资力度对抗不确定性
查看>>
个人信息被出卖后 你还支持智慧城市计划吗
查看>>
263发布EM新品迈入统一通信
查看>>