假如有这样的一段序列:
1 2  
1 2  
2 1  
1 3  
1 4  
1 5  
4 1 
我们需要得到如下的结果:
1 3  
1 5  
2 1  
4 1 
那么,请借助以下的perl脚本来实现。
代码一:
复制代码 代码如下:
#!/bin/perl
use strict;  
use warnings;  
my $filename;  
my %hash;  
my @information;  
my $key1;  
my $key2;  
print "please put in the file like this f:\\\\perl\\\\data.txt\n";  
chomp($filename=<STDIN>);  
open(IN,"$filename")||die("can not open");  
while(<IN>)  
{  
   chomp;  
   @information=split/\s+/,$_;  
   if(exists $hash{$information[0]}{$information[1]})  
   {  
       next;  
   }  
   else  
   {  
       $hash{$information[0]}{$information[1]}='A';  
    }  
   }  
   close IN;  
   open(IN,"$filename")||die("can not open");  
   while(<IN>)  
   {  
       @information=split/\s+/,$_;  
       if(exists $hash{$information[1]}{$information[0]})  
       {  
           delete $hash{$information[0]}{$information[1]}  
       }  
       else  
       {  
           next;  
       }  
   }  
   close IN;  
   open(OUT,">f:\\A_B_result.txt")||die("can not open");  
   foreach $key1 (sort{$a<=>$b} keys %hash)  
   {  
       foreach $key2 (sort{$a<=>$b} keys %{$hash{$key1}})  
       {  
           print OUT "$key1 $key2\n";  
       }  
   }  
close OUT; 
代码二:
如果有一个文件data有10G大,但是有好多行都是重复的,需要将该文件中重复的行合并为一行,那么我们需要用什么办法来实现 
cat data |sort|uniq > new_data #该方法可以实现,但是你需要花上好几个小时。结果才能出来。
下面是一个使用perl脚本来完成此功能的小工具。原理很简单,创建一个hash,每行的内容为键,值由每行出现的次数来填充,脚本如下;
复制代码 代码如下:
#!/usr/bin/perl
# Author :CaoJiangfeng
# Date:2011-09-28
# Version :1.0
use warnings;
use strict;
my %hash;
my $script = $0; # Get the script name
sub usage 
{
        printf("Usage:\n");
        printf("perl $script <source_file> <dest_file>\n");
}
# If the number of parameters less than 2 ,exit the script
if ( $#ARGV+1 < 2) {
        &usage;
        exit 0;
}
my $source_file = $ARGV[0]; #File need to remove duplicate rows
my $dest_file = $ARGV[1]; # File after remove duplicates rows
open (FILE,"<$source_file") or die "Cannot open file $!\n";
open (SORTED,">$dest_file") or die "Cannot open file $!\n";
while(defined (my $line = <FILE>))
{
        chomp($line);
        $hash{$line} += 1;
        # print "$line,$hash{$line}\n";
}
foreach my $k (keys %hash) {
        print SORTED "$k,$hash{$k}\n";#改行打印出列和该列出现的次数到目标文件
}
close (FILE);
close (SORTED);
代码三:
通过perl脚本,删除数据组中重复的字段
复制代码 代码如下:
#!/usr/bin/perl
use strict;
my %hash;
my @array = (1..10,5,20,2,3,4,5,5);
#grep 保存符合条件的元素
@array = grep { ++$hash{$_} < 2 } @array;
print join(" ",@array);
print "\n";
perl,重复内容
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
 - 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
 - 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
 - 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
 - 群星《2024好听新歌42》AI调整音效【WAV分轨】
 - 王思雨-《思念陪着鸿雁飞》WAV
 - 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
 - 李健《无时无刻》[WAV+CUE][590M]
 - 陈奕迅《酝酿》[WAV分轨][502M]
 - 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
 - 群星《吉他王(黑胶CD)》[WAV+CUE]
 - 齐秦《穿乐(穿越)》[WAV+CUE]
 - 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
 - 邝美云《邝美云精装歌集》[DSF][1.6G]
 - 吕方《爱一回伤一回》[WAV+CUE][454M]