+ -
当前位置:首页 → 问答吧 → perl快速占用内存

perl快速占用内存

时间:2010-11-22

来源:互联网

现在要进行某个系统的性能测试,需要找个程序把系统资源吃光。快速占用cpu和内存。

这个程序:
  1. my $s = 100;
  2. open FILE, "<file.txt" or die "open error";

  3. my @line = <FILE>;

  4. ## print "@line \n";

  5. while (1) {
  6.     $s = $s x 5;
  7.     $s = $s / 5;
  8. }

  9. close FILE;
复制代码
这个程序: cpu倒是很快就吃光了,读的那个文件有600M,但是读进去的时候很慢。
半天才占用了50多m,有没有办法可以快速占用到900m啊,系统有1g的内存。

作者: among29   发布时间: 2010-11-22

本帖最后由 zhlong8 于 2010-11-22 15:27 编辑

占用内存你为什么要读文件,直接在内存里面连接字符串不就行了
  1. my $s = '1';
  2. while (1) {
  3.     $s x= 5;
  4. }
复制代码
我还没反应过来就已经out of memory 了,不过应该是需求的块太大了无法分配,内存占用量并没有升的太高
  1. my @a;
  2. while (1) {
  3.     push @a, rand;
  4. }
复制代码
这个CPU和内存会直线上升,不过我在win下会用到交换文件内存占用几百M又会减小然后再增长

作者: zhlong8   发布时间: 2010-11-22

现在的问题是cpu比较好搞,一个循环都能搞定。

内存太多了,就out of memory了,就自动推出了。
我想让程序在800-900m之间平稳运行。
这样才能做测试呢。。

作者: among29   发布时间: 2010-11-22

本帖最后由 zhlong8 于 2010-11-22 15:33 编辑

按一个浮点数 40byte 构造个数组,然后死循环试下?

我机器上1000W占300多M
  1. my @a;

  2. for ( 0 .. 1000_0000) {
  3.     push @a, rand;
  4. }

  5. my $n = 0;
  6. while (1) {
  7.     $n++;
  8. }
复制代码

作者: zhlong8   发布时间: 2010-11-22

感谢楼上,我刚才自己搞了个和你类似的。。
  1. my @a;

  2. foreach (1..30000000)
  3. {
  4.         push @a,1234567890;
  5. }

  6. my $s = 100;
  7. while (1)
  8. {
  9.     $s = $s x 5;
  10.     $s = $s / 5;
  11. }
复制代码
查不多占用600多m的内存。
正在做稳定的测试。。好像过一会,内存会全部释放,cpu的还占着。。

作者: among29   发布时间: 2010-11-22

  1. #打开个1M的文件
  2. open FILE, "<file";
  3. my $content;
  4. {
  5.     local $/ = undef;
  6.     $content = <FILE>;
  7. }
  8. my $i = 1;
  9. my %hash;
  10. while($i < 600){
  11.     $hash{$i} = $content. $i;
  12.     $i++;
  13. }

  14. while(1){
  15.     $i = $i *5;
  16.     $i = $i/5;
  17. }
复制代码
改变$i的上限值就可以占用需要的内存, 不过在其他程序跑的时候会不会稳定持有就不知道了.

作者: wind_ch   发布时间: 2010-11-22