所有的出站邮件都已被管理员全局禁用。任何类型的邮件通知都不会被发出。

那身为在澳洲利亚的用户,以下几种方案哪个会有更好的体验呢(目前的服务器情况):
1 直连
2 开梯子至新加坡 打开游戏
3 开梯子至国内 打开游戏

今天中午12点进行了网络有关的设备调整,周二观察一天看看掉线率的改变

根据结果,周三会进一步调整,然后周四观察周三的改动影响。

辛苦了,
近期网络资源都去支持ai dpsk了,现在的网络服务很多都是浮动的,特别是云服务器。
ai以获取数据(大数据),会频繁访问网络,类似于攻击(我们公司服务最近也不稳定),带宽会被占用,机房总体带资源是有限的,也许自己的服务期没被访问,同一机房其他服务器被访问,就会占用带宽。
以上是我的分析,所以我们公司服务器年前到现在也有卡顿(阿里云、电信机房都有卡顿情况)

辛苦了,
近期网络资源都去支持ai deepseek了,现在的网络服务很多都是浮动的,特别是云服务器。
ai以获取数据(大数据),会频繁访问网络,类似于攻击(我们公司服务最近也不稳定),带宽会被占用,机房总体带资源是有限的,也许自己的服务期没被访问,同一机房其他服务器被访问,就会占用带宽。
以上是我的分析,所以我们公司服务器年前到现在也有卡顿(阿里云、电信机房都有卡顿情况)

我问了deepseek
他回复了些解决办法是的,AI频繁访问网络服务可能会对整个网络环境产生负面影响,尤其是在资源占用和带宽占用方面。以下是具体原因和影响:


1. 带宽占用

  • 大量数据传输:AI任务(如分布式训练、模型推理或数据采集)通常需要传输大量数据。如果网络带宽有限,频繁的网络请求可能导致带宽被大量占用,影响其他网络服务的性能。
  • 实时性任务受影响:对于需要低延迟的网络服务(如视频会议、在线游戏等),带宽被AI任务占用可能导致延迟增加或服务质量下降。

2. 资源占用

  • 服务器负载增加:AI频繁访问网络服务会增加服务器的负载,可能导致服务器响应变慢,甚至出现超时或崩溃。
  • 网络设备压力:路由器、交换机等网络设备在高负载下可能性能下降,影响整个网络的稳定性。

3. 网络拥塞

  • 流量激增:如果AI任务集中在某一时间段内访问网络服务,可能导致网络拥塞,影响其他用户的正常使用。
  • 跨区域网络影响:如果AI任务需要访问远程服务器(如云端服务),跨区域的网络流量可能进一步加剧拥塞。

4. 电力与散热

  • 设备高负载运行:频繁的网络访问会导致服务器和网络设备持续高负载运行,增加电力消耗和散热需求,可能间接影响设备寿命和稳定性。

如何缓解AI对网络环境的影响?

  1. 优化网络使用

    • 对AI任务的网络请求进行压缩或分批处理,减少不必要的数据传输。
    • 使用本地缓存或边缘计算,减少对中心服务器的频繁访问。
  2. 带宽管理

    • 使用流量控制工具(如QoS)为AI任务分配固定带宽,避免占用过多资源。
    • 将AI任务安排在非高峰时段运行,减少对实时性服务的影响。
  3. 分布式计算

    • 将AI任务分布到多个节点,避免集中访问单一服务器或网络路径。
  4. 监控与调整

    • 实时监控网络流量和服务器负载,及时调整任务优先级或资源分配。

总结

AI频繁访问网络服务确实可能导致网络环境变差,但通过合理的资源管理、带宽优化和任务调度,可以显著减轻这种影响,确保网络环境的稳定性和高效性。

占用带宽是我们现在确实观察到的现象。可是DeepSeek架在阿里云上吗就???搞ai用的爱好者级别的解决方案?如果真是的话,那所有阿里云服务都会像mc这样卡,可是其他的各种游戏和私服哪这么离谱,顶多有一点点卡罢了吧?很难不认为是恶意发包,但是也要看最后到底是什么。

很有意思的意见,从时间上,mc开始卡跟deepseek火起来的时间确实是吻合的

阿里云的服务质量确实在那时间开始变的非常糟糕

美国今天开始完全无法正常完成游戏,按了没反应一个动作几十秒,换side界面基本稳定掉线无法重连,疯狂掉分了

目测问题也许解决了,需要从现在这个时间开始后的对战反馈

事情完结,大概情况如下:

  • 从1月22日开始,MC服务器开始被攻击。MC从那时尝试了N种解决方法,一直排查排测
  • 但阿里云提供的服务变的十分卡顿,从日期上来说,估计是deepseek有关的宏观原因。
  • 运营商检测到我们被攻击,所以就劣化了我们的网,进一步加剧问题。
  • 到2月11日,前后三周时间,MC花了上百个小时,无数种解决办法,以及花了很多钱,最终解决了这个问题。

目前还是经常掉线,基本上每1分钟就得打tip刷一下状态,3分钟就倒计时卡死需要退出重进