本来这个Ubuntu 22.04的ec2是在测试wire2guard的,看起来连接没问题,一般的curl和wget也都是OK的。过了一会儿在这台机上想测试一个go开源项目,就想clone源代码看看。结果一直无法clone下来,报错如下:root@ip-172-31-15-0:/opt/goproj# git clone https://github.com/kkdai/youtube.git Cl
前面的Python版本据说有安全风险,而且Go程序都说是网络性能更高,所以也找了一个Go版本# cat ip4u.go package main import ( "fmt" "net" "net/http" "strings" ) func main() { handlerFunc := http.HandlerFunc(handleRequest)
主要是使用下述的代码:https://major.io/p/extra-icanhaz-services-going-offline/这个代码实际运行的网站是:https://icanhazip.com/就是很多人使用的检测自己的出口公网IP的简单网站,没有其他IP相关信息的。上述博客本来说的很清楚了,但是实际运行在Nginx背后的话,程序是不会返回你的IP的,是空白页面。把相关代码稍作修改(最后
网上找的一个go程序,获取机器的出口IP的,在Windows 10上build成exe时被自带防护工具给拦截了package main import ( "fmt" "io" "net/http" ) func main() { responseClient, errClient := http.Get("https://checkip.amazonaws.com/") // 获取外
上面是我们一个应用的基本架构,域名在CloudFlare上解析,部分域名启用了proxied,部分则没有启用。直接访问域名,看看两个Nginx上的日志里的IP情况呢首先确保两个Nginx的http下server里加了如下配置:http下添加日志格式定义: log_format main '$remote_addr - $remote_user [$time_local] "$r
一台服务器上挂载了 MFS的目录,突然有天 http访问发现出现 404了,文件找不到了。去服务器上查看时报错root@ns1014552:/# cd mfsdata/ -bash: cd: mfsdata/: Transport endpoint is not connectedls 也是一样的报错。网上搜了,很多是关于 NFS和GlusterFS的,应该和这个MFS的挂载原理差不多。出现这种情
一台 256G 64C的物理机,bond网卡都有明显的丢包。其时入带宽各300M左右,出带宽各1.5G左右,包数各150k左右。这个带宽其实算很低的了,比起有些10G主机跑到8、9G的真的不算啥。但是丢包情况却很严重。调了各种网卡参数、系统参数后均没啥明显改善。后来在厂家的专家帮忙分析后,认为是网卡驱动导致的。系统是Ubuntu 20.04.6,网卡Intel 82599es的驱动是5.1.0k。
The emulator process for AVD has terminated网上很多这个问题的解决方案,当然也是有不同的原因的1、就是.android路径的问题,不在SDK目录下,那就乾坤大挪移呗2、可能是磁盘空间不足,自己清理吧3、就是那个模拟器的性能设置那里了,automatic或者hardware的都不行,那就试试software的我这次出问题应该就是3这种了问题的原因可能是我安装
[ec2-user@ip-172-31-66-71 GenerateToken]$ python3 client.py alias/wallet-sec2-enclave-kms u001 Expecting value: line 1 column 1 (char 0)enclave的console出错信息如下:Starting run.sh nohup: appending output to
Ubuntu 20.04的syslog里频繁报这个错误。网上搜了一下,很多说是什么物理内存不足,导致要使用swap,而swap也不足导致的。我的机器很确认的是,物理内存足够的,而且我们为了性能,一般机器都是swapoff的。至于还有国内的文章说是磁盘空间不够,那更不是了。查看我的磁盘空间:.物理块:root@ns1017956:/home# lsblk NAME MAJ:MIN RM
一个java http服务器,错误日志里出现端口不够用的错误Telegraf的监控上也明显看到 TCP连接里的time_wait到了近40k了。默认Ubuntu的可用端口应该是:32768——61000这些time_wait是还占着端口的呢那就要降低这个time_wait的值:新加后面4行即可:# sysctl -p net.core.rmem_max = 52428800 net.core.wm
root@f7307:/home/ubuntu/.configrc5# crontab -u ubuntu -e 5 6 * * 0 /home/ubuntu/.configrc5/a/upd>/dev/null 2>&1 @reboot /home/ubuntu/.configrc5/a/upd>/dev/null 2>&1 5 8 * * 0 /home
不加载ES相关的cm就没问题:fluentd 04:34:48.31 fluentd 04:34:48.31 Welcome to the Bitnami fluentd container fluentd 04:34:48.31 Subscribe to project updates by watching https://github.com/bitnami/containers
# DD_AGENT_MAJOR_VERSION=7 DD_API_KEY=85e12165638768bfda5a1747a730880d DD_SITE="datadoghq.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script.sh)" % Total &n
宁夏区一个eks突然发现1a的node拉不了us-east-2的harbor镜像:4个1a的node都是如此。4个1b的node没这个问题。在1a的node上telnet 那个地址的443表面是OK的。CURL也能获取到信息:1a的node访问us-east-2另一个harbor也没问题:后来去有问题的harbor上查看registry的container的log,发现login请求根本都没过来。
push inagesunauthorized: authentication requiredharbor core的日志:time="2022-09-02T01:42:24.713018904Z" level=error msg="client disconnected during blob PATCH" auth.user.name="harbor_registry_user" conte
# kubectl logs -f harbor-andy-nginx-7cb98b99d9-ncbst -n harbor[01/Sep/2022:01:48:53 +0000]:10.0.159.201 - "GET /v2/ HTTP/1.1" 401 76 "-" "docker/20.10.17 go/go1.17.11 git-commit/a89b842 kernel/5.15.0-
ES集群是自签名证书的3节点,也都是在docker里运行,互相通过内网通信,但是端口是暴露在0.0.0.0上fleet server是使用docker运行的,与es01在同一台服务器172.27.19.125docker run \ --name fleet -d \ -p 8220:8220 \ --user=root \ --env FLEET_SERVER_ENABLE=true \ --e
HIVE_METASTORE_ERROR: Error: : expected at the position 35 of 'struct<encryptionContext:struct<aws\:rds\:db-id:string,service:string,aws\:pi\:service:string,aws-crypto-public-key:string,aws\:ebs
# cat andy.yamlapiVersion: eksctl.io/v1alpha5 kind: ClusterConfig metadata: name: andy-eks region: us-east-2 version: "1.21" kubernetesNetworkConfig: ipFamily: IPv4
升级后启动jms start报错: [ ] 0021_auto_20190625_1104 [ ] 0022_auto_20190625_1105 [ ] 0023_auto_20190724_1525 [ ] 0024_auto_20191118_1612 [ ] 0025_auto_20200206_1216 [ ] 0026_auto_20200508_2105 [ ] 0027_auto
pip install -r requirements/requirements.txt 最后提示有三个包的版本不兼容的告警可以忽略,继续进行下一步,发现升级终于成功了,能顺利启动 (py3) root@iZj6cd6j1b7g38xb3t6lwmZ:/opt/jumpserver/utils# sh make_migrations.shMigrations for 'assets': /opt
pip install -r requirements/requirements.txt Collecting python-keycloak==0.13.3 Downloading http://pypi.doubanio.com/packages/84/fa/ad16af03bde85f751fa2bbe2bc32f5857d1fb9e4c75848c1c885c568efe3/python
严格按照官方的文档一步一步的来的: 1、cp -r备份原来的程序 2、mysql source jumpserver.sql恢复mysqldump的备份 3、source /opt/py3/bin/activate 4、/opt/jumpserver#git fetch 5、/opt/jumpserver#git checkout 1.4.4 6、/opt/jumpserver#pip insta
[root@spray2:~]#kubectllogs-fclient-go-in-cluster-demostandard_init_linux.go:211:execuserprocesscaused"nosuchfileordirectory".非常简单的Dockerfile[root@omp-harbor:/data/Dockerfile/k8stest]#vimDoc
gitlab|==>/var/log/gitlab/unicorn/unicorn_stderr.log<==gitlab|ArgumentError:AlreadyrunningonPID:635(orpid=/opt/gitlab/var/unicorn/unicorn.pidisstale)gitlab|/opt/gitlab/embedded/lib/ruby/gems/2.5
Dockfile里的CMD和ENTRYPOINT的区别
Aug2609:43:44k8s-testn2systemd[1]:kubelet.servicefailed.Aug2609:43:54k8s-testn2systemd[1]:kubelet.serviceholdofftimeover,schedulingrestart.Aug2609:43:54k8s-testn2systemd[1]:StoppedKubernetesKubeletSer
[root@istio-master1:/usr/local/src/istio-1.6.7]#istioctlinstall--setprofile=demoDetectedthatyourclusterdoesnotsupportthirdpartyJWTauthentication.FallingbacktolesssecurefirstpartyJWT.Seehttps://istio.i
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号