<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:taxo="http://purl.org/rss/1.0/modules/taxonomy/" version="2.0">
  <channel>
    <title>topic Re: NFS timed out error on 2050A in Network and Storage Protocols</title>
    <link>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56475#M5228</link>
    <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;Hi,&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;It does look like a disk bottleneck at this particular time when the data was captured - which with only five data disks is not a big surprise I think.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Can you either run systat for longer, or (even better) a perfstat for a day?&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;It would be handy to correlate peak times with what actually is going on in your environment - occasional peaks not necesarily are very bad (well, server timeouts are though)&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Regards,&lt;BR /&gt;Radek&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
    <pubDate>Fri, 30 Oct 2009 15:05:18 GMT</pubDate>
    <dc:creator>radek_kubka</dc:creator>
    <dc:date>2009-10-30T15:05:18Z</dc:date>
    <item>
      <title>NFS timed out error on 2050A</title>
      <link>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56470#M5227</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;Hi,&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I occasionally got NFS timeout error when accessing the volumes on the FAS2050A storage system from multiple Linux clients.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;nfs: server 192.168.x.x not responding, timed out&lt;BR /&gt;nfs: server 192.168.x.x not responding, timed out&lt;BR /&gt;nfs: server 192.168.x.x not responding, timed out&lt;/P&gt;&lt;P&gt;&lt;BR /&gt;I have ran simple sysstat and statit to capture some stat:&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;disk&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; ut%&amp;nbsp; xfers&amp;nbsp; ureads--chain-usecs writes--chain-usecs cpreads-chain-usecs greads--chain-usecs gwrites-chain-usecs&lt;BR /&gt;/aggr0/plex0/rg0:&lt;BR /&gt;0a.17&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 3&amp;nbsp;&amp;nbsp; 1.49&amp;nbsp;&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&amp;nbsp;&amp;nbsp; 1.38&amp;nbsp; 13.42&amp;nbsp; 1516&amp;nbsp;&amp;nbsp; 0.11&amp;nbsp; 32.00&amp;nbsp;&amp;nbsp;&amp;nbsp; 63&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&lt;BR /&gt;0a.19&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 7&amp;nbsp;&amp;nbsp; 3.10&amp;nbsp;&amp;nbsp;&amp;nbsp; 0.34&amp;nbsp;&amp;nbsp; 1.00 138667&amp;nbsp;&amp;nbsp; 2.64&amp;nbsp;&amp;nbsp; 7.48&amp;nbsp; 1453&amp;nbsp;&amp;nbsp; 0.11&amp;nbsp; 32.00&amp;nbsp;&amp;nbsp;&amp;nbsp; 63&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&lt;BR /&gt;0a.21&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 89 104.58&amp;nbsp; 101.71&amp;nbsp;&amp;nbsp; 1.15 40939&amp;nbsp;&amp;nbsp; 2.18&amp;nbsp;&amp;nbsp; 8.16&amp;nbsp; 1574&amp;nbsp;&amp;nbsp; 0.69&amp;nbsp;&amp;nbsp; 8.33&amp;nbsp; 2900&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&lt;BR /&gt;0a.23&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 89 109.29&amp;nbsp; 107.79&amp;nbsp;&amp;nbsp; 1.39 32168&amp;nbsp;&amp;nbsp; 0.69&amp;nbsp; 24.67&amp;nbsp; 1432&amp;nbsp;&amp;nbsp; 0.80&amp;nbsp;&amp;nbsp; 6.14&amp;nbsp; 4000&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&lt;BR /&gt;0a.25&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 90 108.94&amp;nbsp; 106.76&amp;nbsp;&amp;nbsp; 1.41 32073&amp;nbsp;&amp;nbsp; 1.26&amp;nbsp; 13.45&amp;nbsp; 1459&amp;nbsp;&amp;nbsp; 0.92&amp;nbsp;&amp;nbsp; 5.25&amp;nbsp; 3905&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&lt;BR /&gt;0a.27&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 88 106.19&amp;nbsp; 104.81&amp;nbsp;&amp;nbsp; 1.39 33839&amp;nbsp;&amp;nbsp; 0.69&amp;nbsp; 24.83&amp;nbsp; 1121&amp;nbsp;&amp;nbsp; 0.69&amp;nbsp;&amp;nbsp; 7.17&amp;nbsp; 2279&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&lt;BR /&gt;0a.29&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 88 110.55&amp;nbsp; 108.83&amp;nbsp;&amp;nbsp; 1.39 33139&amp;nbsp;&amp;nbsp; 0.80&amp;nbsp; 21.29&amp;nbsp;&amp;nbsp; 953&amp;nbsp;&amp;nbsp; 0.92&amp;nbsp;&amp;nbsp; 5.25&amp;nbsp; 1690&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&amp;nbsp;&amp;nbsp; 0.00&amp;nbsp;&amp;nbsp; ....&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; .&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt; CPU&amp;nbsp;&amp;nbsp; NFS&amp;nbsp; CIFS&amp;nbsp; HTTP&amp;nbsp;&amp;nbsp; Total&amp;nbsp;&amp;nbsp;&amp;nbsp; Net kB/s&amp;nbsp;&amp;nbsp; Disk kB/s&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Tape kB/s Cache Cache&amp;nbsp; CP&amp;nbsp;&amp;nbsp; CP Disk&amp;nbsp;&amp;nbsp;&amp;nbsp; FCP iSCSI&amp;nbsp;&amp;nbsp; FCP&amp;nbsp; kB/s&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; in&amp;nbsp;&amp;nbsp; out&amp;nbsp;&amp;nbsp; read&amp;nbsp; write&amp;nbsp; read write&amp;nbsp;&amp;nbsp; age&amp;nbsp;&amp;nbsp; hit time&amp;nbsp; ty util&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; in&amp;nbsp;&amp;nbsp; out&lt;BR /&gt; 14%&amp;nbsp; 1575&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp; 1575&amp;nbsp;&amp;nbsp; 353&amp;nbsp;&amp;nbsp; 745&amp;nbsp;&amp;nbsp; 2540&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 8&amp;nbsp;&amp;nbsp; 97%&amp;nbsp;&amp;nbsp; 0%&amp;nbsp; -&amp;nbsp; 100%&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&lt;BR /&gt; 15%&amp;nbsp;&amp;nbsp; 953&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 953&amp;nbsp;&amp;nbsp; 192&amp;nbsp; 2461&amp;nbsp;&amp;nbsp; 4528&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 24&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 8&amp;nbsp;&amp;nbsp; 95%&amp;nbsp;&amp;nbsp; 0%&amp;nbsp; -&amp;nbsp; 100%&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&lt;BR /&gt; 13%&amp;nbsp;&amp;nbsp; 970&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 970&amp;nbsp;&amp;nbsp; 221&amp;nbsp; 1769&amp;nbsp;&amp;nbsp; 3364&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 9&amp;nbsp;&amp;nbsp; 95%&amp;nbsp;&amp;nbsp; 0%&amp;nbsp; -&amp;nbsp; 100%&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&lt;BR /&gt; 38%&amp;nbsp; 1364&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp; 1364&amp;nbsp;&amp;nbsp; 425&amp;nbsp; 5721&amp;nbsp;&amp;nbsp; 5284&amp;nbsp;&amp;nbsp; 4804&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 9&amp;nbsp;&amp;nbsp; 99%&amp;nbsp; 59%&amp;nbsp; Zf 100%&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&lt;BR /&gt; 33%&amp;nbsp; 2404&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp; 2404&amp;nbsp;&amp;nbsp; 472&amp;nbsp; 6967&amp;nbsp;&amp;nbsp; 7112&amp;nbsp;&amp;nbsp; 2224&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 9&amp;nbsp;&amp;nbsp; 95%&amp;nbsp; 77%&amp;nbsp; Zf&amp;nbsp; 78%&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&lt;BR /&gt; 28%&amp;nbsp; 2865&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp; 2865&amp;nbsp;&amp;nbsp; 596&amp;nbsp; 7068&amp;nbsp;&amp;nbsp; 5804&amp;nbsp;&amp;nbsp; 1212&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 9&amp;nbsp;&amp;nbsp; 94%&amp;nbsp; 94%&amp;nbsp; 2f&amp;nbsp; 71%&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&lt;BR /&gt; 12%&amp;nbsp; 1051&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp; 1051&amp;nbsp;&amp;nbsp; 221&amp;nbsp; 1691&amp;nbsp;&amp;nbsp; 1884&amp;nbsp;&amp;nbsp;&amp;nbsp; 668&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 9&amp;nbsp;&amp;nbsp; 96% 100%&amp;nbsp; :f 100%&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&lt;BR /&gt; 20%&amp;nbsp;&amp;nbsp; 777&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 777&amp;nbsp;&amp;nbsp; 343&amp;nbsp;&amp;nbsp; 328&amp;nbsp;&amp;nbsp;&amp;nbsp; 748&amp;nbsp;&amp;nbsp;&amp;nbsp; 212&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 9&amp;nbsp;&amp;nbsp; 96%&amp;nbsp; 28%&amp;nbsp; :&amp;nbsp;&amp;nbsp; 55%&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Base on that stat, am I correct that the 2050A are hitting I/O performance issue since the disk util are hitting 100% sometimes and the utilization of the five data disks in the raid group will reach ~90% (normally is 50 ~70%)?&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Should there be some other issue like network that may cause the NFS timeout? I have submitted the case to NetApp support. They claimed that enable flowcontrol should fix the issue. But it seems to me it is more a I/O bottleneck. Anynone have idea how to check verify if there is network issue?&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Thanks&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Thu, 05 Jun 2025 07:22:22 GMT</pubDate>
      <guid>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56470#M5227</guid>
      <dc:creator>jasonwo</dc:creator>
      <dc:date>2025-06-05T07:22:22Z</dc:date>
    </item>
    <item>
      <title>Re: NFS timed out error on 2050A</title>
      <link>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56475#M5228</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;Hi,&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;It does look like a disk bottleneck at this particular time when the data was captured - which with only five data disks is not a big surprise I think.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Can you either run systat for longer, or (even better) a perfstat for a day?&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;It would be handy to correlate peak times with what actually is going on in your environment - occasional peaks not necesarily are very bad (well, server timeouts are though)&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Regards,&lt;BR /&gt;Radek&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Fri, 30 Oct 2009 15:05:18 GMT</pubDate>
      <guid>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56475#M5228</guid>
      <dc:creator>radek_kubka</dc:creator>
      <dc:date>2009-10-30T15:05:18Z</dc:date>
    </item>
    <item>
      <title>Re: NFS timed out error on 2050A</title>
      <link>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56480#M5229</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;Hi,&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;It is also what I am thinking that 5 data disks is not fast enough to handle the I/O request. We submitted case to NetApp before, interestingly here is their reply:&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;&lt;SPAN style="color: #0000ff;"&gt;"The disk util being between 90 to 100% is no cause for concern. This is simply indicating that ONTAP is utilizing all or most memory available when needed to maximize performance. The figures do not indicate high disk I/O. I understand how some &lt;BR /&gt;&lt;/SPAN&gt;&lt;/P&gt;&lt;P&gt;&lt;SPAN style="color: #0000ff;"&gt;figures on perfstat can be misleading."&lt;/SPAN&gt;&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;It seem high disk util doesn't mean anything and it should not be a concern. I am confusing about this and also contrary to what I found on google.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;They also point out that it is a network bottleneck and suggest that enabling full flow control on network switch should fix the issue as they found out "Misses" on NFS reply cache statistics are high relative to what is "In Progress". It implies there is more retransmission:&lt;/P&gt;&lt;P&gt;&lt;SPAN style="font-family: Arial; color: #0000ff;"&gt;&lt;BR /&gt;UDP:&lt;BR /&gt;In progress Delay&amp;nbsp; hits Misses Idempotent Non-idempotent&lt;BR /&gt;606 0 71944 17 0&lt;/SPAN&gt;&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I can't really justify what they said. But we will have a try to enable full flow control to observe&amp;nbsp; if can improve the sutituation. Just wonder if anyone of you encounter this error before and flow control can fix the issue?&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Thanks,&lt;/P&gt;&lt;P&gt;Jason&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Thu, 12 Nov 2009 03:44:54 GMT</pubDate>
      <guid>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56480#M5229</guid>
      <dc:creator>jasonwo</dc:creator>
      <dc:date>2009-11-12T03:44:54Z</dc:date>
    </item>
    <item>
      <title>Re: NFS timed out error on 2050A</title>
      <link>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56485#M5230</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;Hi Jason,&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Using sysstat to troubleshoot networking issues might not be the right tool. Typicall I d use&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;ping&lt;/P&gt;&lt;P&gt;traceroute&lt;/P&gt;&lt;P&gt;&lt;SPAN style="text-decoration: underline;"&gt;enable debugging: &lt;/SPAN&gt;&lt;/P&gt;&lt;P&gt;nfs.mountd.trace on&lt;/P&gt;&lt;P&gt;nfs.per_client_stats.enable on&lt;/P&gt;&lt;P&gt;pktt&amp;nbsp; (packet trace)&lt;/P&gt;&lt;P&gt;rdfile /etc/messages&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;gt; look for error messages here&lt;/P&gt;&lt;P&gt;ifstat -a&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;gt; look for error messages here&lt;/P&gt;&lt;P&gt;check for errors on your clients. see if they have got the same NFS version, use UDP or TCP etc.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I d also configure NFS to use TCP instead if UDP but thats your call. From experience I can tell this is typically a networking&lt;/P&gt;&lt;P&gt;error. your sysstat does not indicate issue. If you are worried about disk bottlnecks then again sysstat is not the best tool, use "statit".&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;priv set advanced&lt;/P&gt;&lt;P&gt;statit -b&lt;/P&gt;&lt;P&gt;wait a couple of mins&lt;/P&gt;&lt;P&gt;statit -e&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;read output. if you dont know how to interpret output send it to tech support. I wouldnt trust someone on google more than tech support.&lt;/P&gt;&lt;P&gt;its in netapps interest to solve your issue, they re not just trying to get rid of you mate.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Cheers,&lt;/P&gt;&lt;P&gt;Eric &lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Thu, 12 Nov 2009 04:18:48 GMT</pubDate>
      <guid>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56485#M5230</guid>
      <dc:creator>eric_barlier</dc:creator>
      <dc:date>2009-11-12T04:18:48Z</dc:date>
    </item>
    <item>
      <title>Re: NFS timed out error on 2050A</title>
      <link>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56489#M5231</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;Hi,&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;We managed to add more disk to the 2050 now. We figured out there is a significant improvment on our filer and also much reduce in the number of NFS timed out occurance. The disk util% are dropping to 80. This prove it is an I/O botterneck.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I have to say, the Tech support is giving us the wrong direction by saying that it is network problem but can't identifiy it is an I/O bottleneck from the perfstat we send. Also they calm the disk util being 90% to 100% is no cause for concern which is not the case. We had been losing time to trace the problem from network prospective.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Thanks,&lt;/P&gt;&lt;P&gt;Jason&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Fri, 15 Jan 2010 21:35:26 GMT</pubDate>
      <guid>https://community.netapp.com/t5/Network-and-Storage-Protocols/NFS-timed-out-error-on-2050A/m-p/56489#M5231</guid>
      <dc:creator>jasonwo</dc:creator>
      <dc:date>2010-01-15T21:35:26Z</dc:date>
    </item>
  </channel>
</rss>

