FAS and V-Series Storage Systems Discussions

FAS2240 High CPU Usage

Hi everybody

recently i've found myself troubleshooting high cpu issues on a FAS2240 lab storage , running version 8.1.4P1 7-Mode

I've gone through the other discussions in the forum for similar issues, but i could not understand what's the issue in my specific case, at least nothing clear enough for a newbie like me.

Thats why i'm here askin!

At first the issue seems to be related to backup jobs running together (reading) from this volumes

But it's still strange this high cpu consumption for a not so exagerate access to the filer

 

And also one single cpu seems to be much loaded than the others

 

Can you tel me what you think about this issue?
I'm pasting outputs of sysstat -m 1 and a statit output
Any help will be really appreciated!

sysstat -M 1
ANY1+ ANY2+ ANY3+ ANY4+  AVG CPU0 CPU1 CPU2 CPU3 Network Protocol Cluster Storage Raid Target Kahuna WAFL_Ex(Kahu) WAFL_XClean SM_Exempt Cifs Exempt Intr Host  Ops/s   CP
  99%   66%   36%   13%  54%  49%  48%  50%  68%      6%       0%      0%     10%  15%     0%     6%    135%( 91%)         17%        0%   0%    23%   2%   1%    961  44%
  93%   63%   35%   14%  52%  42%  48%  49%  68%      7%       0%      0%      9%  16%     0%    12%    126%( 78%)          7%        0%   0%    27%   2%   2%   1042 100%
  99%   54%   25%    8%  47%  31%  36%  42%  80%      7%       0%      0%     10%  16%     0%     9%    113%( 90%)          0%        0%   0%    30%   2%   0%   1042 100%
 100%   62%   33%   12%  52%  39%  42%  45%  83%     10%       0%      0%      9%  14%     0%    22%    124%( 78%)          0%        0%   0%    28%   3%   1%   1584 100%
 100%   70%   43%   17%  58%  47%  53%  54%  77%      5%       0%      0%     12%  18%     0%    29%    131%( 71%)          0%        0%   0%    34%   2%   0%    726 100%
 100%   56%   29%   10%  49%  38%  43%  42%  74%      6%       0%      0%      8%   9%     0%    32%    114%( 67%)          0%        0%   0%    24%   2%   1%   1016   3%
 100%   52%   22%    6%  45%  34%  35%  34%  79%      5%       0%      0%      7%   9%     0%    42%     96%( 58%)          0%        0%   0%    20%   2%   1%    749   0%
 100%   55%   23%    7%  47%  34%  35%  35%  82%      7%       0%      0%      8%   9%     0%    46%     94%( 54%)          0%        0%   0%    20%   2%   1%   1012   0%
 100%   54%   24%    7%  47%  34%  35%  37%  83%      7%       0%      0%      7%   9%     0%    46%     96%( 54%)          0%        0%   0%    21%   2%   1%   1102   0%
 100%   55%   22%    7%  47%  33%  34%  35%  84%      6%       0%      0%      7%   9%     0%    40%     99%( 60%)          0%        0%   0%    22%   2%   1%   1050   0%
 100%   56%   23%    7%  47%  36%  34%  36%  81%      6%       0%      0%      7%   9%     0%    41%    100%( 59%)          0%        0%   0%    22%   2%   1%    986   0%
 100%   56%   24%    8%  47%  36%  35%  37%  80%      9%       0%      0%      7%   8%     0%    39%    101%( 60%)          0%        0%   0%    21%   3%   1%   1666   0%
 100%   39%   13%    3%  39%  21%  23%  25%  87%      5%       0%      0%      5%   6%     0%    59%     67%( 41%)          0%        0%   0%    13%   2%   1%    789   0%
 100%   40%   14%    3%  40%  22%  24%  27%  86%      5%       0%      0%      5%   6%     0%    58%     67%( 41%)          0%        0%   0%    14%   2%   1%    805   0%

 

 

sysstat -m 1
 ANY  AVG  CPU0 CPU1 CPU2 CPU3
 98%  37%   19%  20%  23%  85%
 98%  36%   17%  19%  21%  87%
 98%  35%   18%  20%  22%  81%
100%  53%   42%  46%  54%  70%
 99%  52%   39%  40%  45%  82%
 98%  44%   27%  30%  35%  83%
 98%  39%   20%  24%  27%  84%
 98%  36%   18%  20%  21%  86%
 98%  38%   19%  21%  23%  87%
 98%  36%   18%  20%  20%  86%
 99%  37%   18%  21%  22%  87%

 

 

statit output

 

 NetApp Release 8.1.4P1 7-Mode: Tue Feb 11 23:23:31 PST 2014
    <1O>
  Start time: Tue May 29 12:30:35 CEST 2018

                       CPU Statistics
      34.996478 time (seconds)       100 %
      76.183660 system time          218 %
       0.868077 rupt time              2 %   (548773 rupts x 2 usec/rupt)
      75.315583 non-rupt system time 215 %
      63.802248 idle time            182 %

      12.567883 time in CP            36 %   100 %
       0.316754 rupt time in CP                3 %   (199350 rupts x 2 usec/rupt)

                       Multiprocessor Statistics (per second)
                          cpu0       cpu1       cpu2       cpu3      total
sk switches           81955.99   80712.01   77287.18   35537.06  275492.24
hard switches         32001.85   41487.89   42621.32    3839.70  119950.76
domain switches         287.91     108.95     107.47      59.78     564.11
CP rupts               2833.09     718.10    1427.00     718.10    5696.29
nonCP rupts            4722.73    1281.53    2698.70    1281.56    9984.52
IPI rupts                 0.00       0.00       0.00       0.00       0.00
grab kahuna               0.00       0.00       0.00       0.00       0.00

grab kahuna usec          0.00       0.00       0.00       0.00       0.00

CP rupt usec           5148.78     429.07    3049.82     423.33    9051.03
nonCP rupt usec        8501.00     745.73    5772.01     734.85   15753.64
idle                 563929.32  516761.60  486932.26  255481.71 1823104.91
kahuna                    0.00       0.00       0.00  175594.61  175594.61
storage                  92.55  129513.60      95.12       0.00  129701.31
exempt               104146.37   92548.17   92974.21      15.54  289684.32
raid                     92.75      86.61  169142.73       0.00  169322.12
target                    4.26       8.26       8.86       0.00      21.40
dnscache                  0.00       0.00       0.00       0.00       0.00
cifs                     37.80      35.40      47.92       0.00     121.13
wafl_exempt          277168.81  227652.62  210612.02  567749.90 1283183.44
wafl_xcleaner         13044.43    7011.73    5080.25       0.00   25136.44
sm_exempt                13.03      14.66      16.86       0.00      44.58
cluster                   0.00       0.00       0.00       0.00       0.00
protocol                 28.63      36.20      29.20       0.00      94.07
nwk_exclusive           208.39     174.16     191.68       0.00     574.23
nwk_exempt            23618.78   22714.40   24124.71       0.00   70457.92
nwk_legacy             1479.49       3.43       4.17       0.00    1487.15
hostOS                 2485.39    2264.14    1917.96       0.00    6667.53

      34.416757 seconds with one or more CPUs active   ( 98%)
      22.918672 seconds with 2 or more CPUs active     ( 65%)
      13.201712 seconds with 3 or more CPUs active     ( 38%)

      11.498085 seconds with one CPU active            ( 33%)
       9.716959 seconds with 2 CPUs active             ( 28%)
       8.187941 seconds with 3 CPUs active             ( 23%)
       5.013771 seconds with all CPUs active           ( 14%)

                       Domain Utilization of Shared Domains (per second)
      0.00 idle                         801408.27 kahuna
      0.00 storage                           0.00 exempt
      0.00 raid                              0.00 target
      0.00 dnscache                          0.00 cifs
      0.00 wafl_exempt                       0.00 wafl_xcleaner
      0.00 sm_exempt                         0.00 cluster
      0.00 protocol                      70751.95 nwk_exclusive
      0.00 nwk_exempt                        0.00 nwk_legacy
      0.00 hostOS

                       Miscellaneous Statistics (per second)
 119950.76 hard context switches          1134.66 NFS operations
      0.00 CIFS operations                   0.00 HTTP operations
   9660.77 network KB received            4682.99 network KB transmitted
  69859.03 disk KB read                  26079.54 disk KB written
   9738.75 NVRAM KB written                508.28 nolog KB written
   1048.99 WAFL bufs given to clients        0.00 checksum cache hits  (   0%)
   1048.99 no checksum - partial buffer      0.00 FCP operations
      0.00 iSCSI operations

                       WAFL Statistics (per second)
     37.26 name cache hits      (  79%)     10.09 name cache misses    (  21%)
 496287.86 buf hash hits        (  86%)  79762.97 buf hash misses      (  14%)
  42794.68 inode cache hits     ( 100%)      0.00 inode cache misses   (   0%)
 102960.05 buf cache hits       (  89%)  12101.25 buf cache misses     (  11%)
  10912.41 blocks read                    5196.67 blocks read-ahead
   2476.91 chains read-ahead               501.94 dummy reads
    179.68 blocks speculative read-ahead   4095.30 blocks written
     38.55 stripes written                  23.32 blocks page flipped
      0.00 blocks over-written               0.06 wafl_timer generated CP
      0.00 snapshot generated CP             0.00 wafl_avail_bufs generated CP
      0.00 dirty_blk_cnt generated CP        0.03 full NV-log generated CP
      0.00 back-to-back CP                   0.00 flush generated CP
      0.00 sync generated CP                 0.00 deferred back-to-back CP
      0.00 container-indirect-pin CP         0.00 low mbufs generated CP
      0.00 low datavecs generated CP     33660.42 non-restart messages
   2393.10 IOWAIT suspends             245451070.10 next nvlog nearly full msecs
      0.00 dirty buffer susp msecs           0.00 nvlog full susp msecs
    763878 buffers

                       RAID Statistics (per second)
   1358.62 xors                              0.00 long dispatches [0]
      0.00 long consumed [0]                 0.00 long consumed hipri [0]
      0.00 long low priority [0]             0.00 long high priority [0]
      0.00 long monitor tics [0]             0.00 long monitor clears [0]
      0.00 long dispatches [1]               0.00 long consumed [1]
      0.00 long consumed hipri [1]           0.00 long low priority [1]
      0.00 long high priority [1]            0.00 long monitor tics [1]
      0.00 long monitor clears [1]             18 max batch
      1.40 blocked mode xor                338.12 timed mode xor
      0.34 fast adjustments                  0.51 slow adjustments
         0 avg batch start                      0 avg stripe/msec
   8349.93 checksum dispatches           48068.07 checksum consumed
     38.89 tetrises written                  0.00 master tetrises
      0.00 slave tetrises                 1209.64 stripes written
    148.99 partial stripes                1060.65 full stripes
   4095.64 blocks written                  629.18 blocks read
    913.86 1 blocks per stripe size 1        1.29 1 blocks per stripe size 10
      1.14 2 blocks per stripe size 10       1.71 3 blocks per stripe size 10
      1.57 4 blocks per stripe size 10       2.23 5 blocks per stripe size 10
      4.20 6 blocks per stripe size 10       7.00 7 blocks per stripe size 10
     17.66 8 blocks per stripe size 10      33.37 9 blocks per stripe size 10
     73.21 10 blocks per stripe size 10      1.00 1 blocks per stripe size 14
      0.49 2 blocks per stripe size 14       0.20 3 blocks per stripe size 14
      0.29 4 blocks per stripe size 14       0.83 5 blocks per stripe size 14
      1.83 6 blocks per stripe size 14       2.14 7 blocks per stripe size 14
      5.20 8 blocks per stripe size 14       3.91 9 blocks per stripe size 14
      6.40 10 blocks per stripe size 14      8.06 11 blocks per stripe size 14
     15.72 12 blocks per stripe size 14     32.75 13 blocks per stripe size 14
     73.58 14 blocks per stripe size 14

                       Network Interface Statistics (per second)
iface    side      bytes    packets multicasts     errors collisions  pkt drops
e0a      recv       0.00       0.00       0.00       0.00                  0.00
         xmit       0.00       0.00       0.00       0.00       0.00
e0b      recv       0.00       0.00       0.00       0.00                  0.00
         xmit       0.00       0.00       0.00       0.00       0.00
e0c      recv       0.00       0.00       0.00       0.00                  0.00
         xmit       0.00       0.00       0.00       0.00       0.00
e0d      recv       0.00       0.00       0.00       0.00                  0.00
         xmit       0.00       0.00       0.00       0.00       0.00
e1a      recv 3285927.72    1669.20       0.00       0.00                  0.00
         xmit 1074216.90     648.38       0.03       0.00       0.00
e1b      recv 6606299.95    1060.85       0.00       0.00                  0.00
         xmit 3721098.25     815.02       0.03       0.00       0.00
e0M      recv     419.36       4.46       3.46       0.00                  0.00
         xmit      71.78       0.69       0.00       0.00       0.00
e0P      recv       0.00       0.00       0.00       0.00                  0.00
         xmit       0.00       0.00       0.00       0.00       0.00
vh       recv       0.00       0.00       0.00       0.00                  0.00
         xmit       0.00       0.00       0.00       0.00       0.00
VIF2240-B_10G recv 9880761.03    2780.57       1.14       0.00                  0.00
         xmit 5786275.38    1488.06       0.06       0.00       0.00

                       Disk Statistics (per second)
        ut% is the percent of time the disk was busy.
        xfers is the number of data-transfer commands issued per second.
        xfers = ureads + writes + cpreads + greads + gwrites
        chain is the average number of 4K blocks per command.
        usecs is the average disk round-trip time per 4K block.

disk             ut%  xfers  ureads--chain-usecs writes--chain-usecs cpreads-chain-usecs greads--chain-usecs gwrites-chain-usecs
/SAS_SSD_10K_01B/plex0/rg0:
0b.20.2            2   8.32    0.00   ....     .   2.63  57.97   119   5.69  16.04   140   0.00   ....     .   0.00   ....     .
0a.01.1            3   8.43    0.00   ....     .   2.83  54.01   117   5.60  15.30   152   0.00   ....     .   0.00   ....     .
0a.00.14          28 308.14  302.59   2.05  1386   2.60  51.15   205   2.94   8.57   872   0.00   ....     .   0.00   ....     .
0b.20.3           26 294.22  289.22   2.04  1367   2.43  56.75   224   2.57   6.90  1013   0.00   ....     .   0.00   ....     .
0a.00.15          25 282.16  277.84   2.05  1302   2.43  56.00   193   1.89  10.53   620   0.00   ....     .   0.00   ....     .
0b.20.4           27 286.42  282.19   2.01  1449   2.43  59.68   183   1.80   7.05  1000   0.00   ....     .   0.00   ....     .
0a.00.16          26 311.74  306.42   1.91  1338   2.34  53.26   210   2.97  11.12   451   0.00   ....     .   0.00   ....     .
0b.20.5           28 306.42  301.42   2.24  1251   2.40  54.75   212   2.60   9.68   817   0.00   ....     .   0.00   ....     .
0a.00.17          26 269.96  265.58   2.01  1322   2.43  58.02   189   1.94   8.22   522   0.00   ....     .   0.00   ....     .
0b.20.6           26 276.47  271.47   1.96  1445   2.46  55.19   223   2.54   9.60  1014   0.00   ....     .   0.00   ....     .
0a.00.18          27 315.65  311.31   1.96  1307   2.43  58.69   200   1.91   7.16  1213   0.00   ....     .   0.00   ....     .
0b.20.7           28 301.73  296.08   1.98  1540   2.40  54.10   221   3.26   8.09   566   0.00   ....     .   0.00   ....     .
0a.00.19          28 271.36  266.13   2.11  1547   2.31  56.60   222   2.92   9.04   752   0.00   ....     .   0.00   ....     .
0b.20.8           27 294.56  289.82   2.07  1365   2.43  56.16   212   2.31   7.94   787   0.00   ....     .   0.00   ....     .
0a.00.20          26 293.65  289.36   2.23  1198   2.43  58.35   181   1.86   8.05   885   0.00   ....     .   0.00   ....     .
0b.20.9           28 304.48  299.91   2.00  1381   2.43  58.29   204   2.14   7.45  1297   0.00   ....     .   0.00   ....     .
/SAS_SSD_10K_01B/plex0/rg1:
0b.20.10           3   7.32    0.00   ....     .   2.31  61.95   155   5.00  16.51   391   0.00   ....     .   0.00   ....     .
0a.00.21           2   7.34    0.00   ....     .   2.34  61.22   112   5.00  16.51   101   0.00   ....     .   0.00   ....     .
0b.20.11          32 276.93  272.27   1.73  2768   2.29  55.14   421   2.37   8.99  1672   0.00   ....     .   0.00   ....     .
0a.00.22          28 283.42  278.53   1.94  1568   2.29  54.30   234   2.60   9.57   837   0.00   ....     .   0.00   ....     .
0b.20.12          34 260.50  256.24   2.12  2583   2.29  58.13   353   1.97   7.19  2137   0.00   ....     .   0.00   ....     .
0a.00.23          29 322.31  316.97   1.90  1438   2.29  56.86   203   3.06   5.48  1111   0.00   ....     .   0.00   ....     .
0b.20.13          34 308.22  303.31   1.98  2230   2.29  56.91   318   2.63   6.59  2012   0.00   ....     .   0.00   ....     .
0b.20.14          29 268.58  264.07   2.04  1691   2.29  56.79   205   2.23   8.21  1216   0.00   ....     .   0.00   ....     .
0b.20.15          28 279.59  274.58   2.05  1438   2.26  55.66   244   2.74   8.74   735   0.00   ....     .   0.00   ....     .
0b.20.16          29 297.19  291.99   2.03  1461   2.29  54.99   217   2.92   7.03  1105   0.00   ....     .   0.00   ....     .
0b.20.17          26 270.53  265.70   1.87  1695   2.26  54.01   240   2.57   9.87   712   0.00   ....     .   0.00   ....     .
0b.20.18          26 275.10  269.98   1.94  1433   2.29  55.94   213   2.83   7.34   783   0.00   ....     .   0.00   ....     .
/SAS_SSD_10K_01B/plex0/rg2:
0b.01.20           2 228.83    0.00   ....     . 227.74   3.98    30   1.09   3.55   104   0.00   ....     .   0.00   ....     .
0a.01.21           2 229.72    0.00   ....     . 228.60   3.98    23   1.11   3.26    94   0.00   ....     .   0.00   ....     .
0b.01.22          24 1737.30  1508.56   1.90   329 227.74   3.98    29   1.00   3.89   132   0.00   ....     .   0.00   ....     .
/aggr0/plex0/rg0:
0a.00.12           1   2.00    0.34   1.00   417   1.60   5.11   346   0.06   1.00  6000   0.00   ....     .   0.00   ....     .
0b.20.1            1   2.11    0.34   1.00   250   1.77   4.81   349   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.13           0   0.63    0.03   1.00  8000   0.37  18.69   391   0.23   8.88   662   0.00   ....     .   0.00   ....     .

Aggregate statistics:
Minimum            0   0.63    0.00                0.37                0.00                0.00                0.00
Mean              21 270.33  245.63               22.18                2.46                0.00                0.00
Maximum           34 1737.30  1508.56              228.60                5.69                0.00                0.00

Spares and other disks:
0b.20.0            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.0            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.3            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.6            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.5            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.2            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.4            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.7            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.9            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.8            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.10           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.11           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.0            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.20.19           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.2            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.3            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.4            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.5            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.20.21           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.6            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.20.22           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.7            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.20.23           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.00.1            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.20.20           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.10           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.11           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.17           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.8            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.18           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.12           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.19           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.9            0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.15           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.13           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.16           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0b.01.14           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .
0a.01.23           0   0.00    0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .   0.00   ....     .

                       FCP Statistics (per second)
      0.00 FCP Bytes recv                    0.00 FCP Bytes sent
      0.00 FCP ops

                       iSCSI Statistics (per second)
      0.00 iSCSI Bytes recv                  0.00 iSCSI Bytes xmit
      0.00 iSCSI ops

                       Interrupt Statistics (per second)
   4104.61 int_0                             2.03 int_1
   2122.61 int_2                          1445.40 int_3
      4.94 Gigabit Ethernet (IRQ 8)          0.00 RTC
      0.00 IPI                             999.64 Msec Clock
   8679.24 total

3 REPLIES 3

Re: FAS2240 High CPU Usage

Hi

 

i don't think you have an issue. at least not according to this output. do you see any latency/slowness anywhere?

 

from: https://kb.netapp.com/app/answers/answer_view/a_id/1002579/loc/en_US#__highlight

 

ANY1+ reports near to 100%, even though individual cores report low. ANY1+ represents the amount of time that at least one CPU core was busy doing work in a second. This can very easily give a false report of actual CPU levels on a storage system- especially systems with a high number of cores. A Perfstat is submitted and reviewed, and it shows that no other issues are present. ANY1+ reads 100% very easily, and this is where UM and many other tools get their CPU information from.

 

 

Gidi

 

Gidi Marcus (Linkedin) - Storage and Microsoft technologies consultant - Hydro IT LTD - UK

Re: FAS2240 High CPU Usage

Ok, thank you

actually what worried me was two points

i never get cpu warnings from another storage which is monitored with the same tresholds, and which has apparently a similar workload

And i see one of the cpu (CPU3)  is not balanced as the others

 

If you dont see a problem in the whole scenario i'll try to understand if the monitoring system can be tuned in order not to be warned when not critical

Re: FAS2240 High CPU Usage

Hi

 

Ontap 7 mode on the 8.1 version still had a lot of serial and heavy processes. it's ommon to see this type of unbalanced load.

 

Gidi 

Gidi Marcus (Linkedin) - Storage and Microsoft technologies consultant - Hydro IT LTD - UK
Forums