本地隧道运行问题,根本不起作用



我通过运行以下命令npm install -g localtunnel安装了本地隧道全局。

在那之后,当我跑lt --port 8080时,绝对什么都没有发生。有谁知道为什么?

看来作者这些天没有太多维护本地隧道,但是有一个关于处理这个问题的github问题的有用评论。 在撰写本文时,您可以使用

lt -h "http://serverless.social" -p 8080

尝试

lt -p 8080 -h http://localtunnel.me

在您获得的 URL 中,将"https"替换为"http"。也许不要用谷歌浏览器打开它,而是用Safari打开它,但谷歌浏览器也可能工作。

有关详细信息,请参阅:https://github.com/localtunnel/localtunnel/issues/332

我在树莓派上遇到了同样的问题。您需要验证npmlocaltunnel安装。检查是否获得npm --version的有效结果。如果没有,重新安装npm将解决问题。如果您在本地安装了localtunnel(而不是 -g 选项(,则可能必须使用如下命令:npx localtunnel --port <port>

似乎本地隧道目前已关闭。 单击此处转到 github 问题页面以获取更多信息和更新

运行这个

lt -h "https://serverless.social" -p 8080

它应该工作

我做了一件简单的事情,尽管托管它不安全:

lt --port 443 -h "http://localtunnel.me" -s myhost

然后在另一个选项卡中:

python3 -m http.server 443

这对我有用。 结果是我访问我的站点的设备显示了完整的根目录(我确信需要进行配置来防止这种情况(

将端口从 8080 更改为 8000 问题可能是因为在端口 8080 上已经运行了一些东西。

LocalTunnel 在使用节点 18 时拒绝连接。我已经降级到 16 并且工作正常。我不知道原因,但它似乎与IPv6有关。

如果您遇到问题,请尝试使用DEBUG运行:

export DEBUG="localtunnel:*" && lt --port 8080

作为参考,这是我在使用带有DEBUG标志的节点 18 时看到的错误:

localtunnel:client local error connect ECONNREFUSED ::1:3939 +0ms

在"npm install -g localtunnel"之后,尝试这个:

C:> npx lt -p 8080 -s myserver --print-requests
your url is: https://myserver.loca.lt

或者没有 -s 参数来获取随机 URL。

相关内容

  • 没有找到相关文章

最新更新