-
當前位置:首頁 > 創(chuàng)意學院 > 技術 > 專題列表 > 正文
openAI圖片生成器
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于openAI圖片生成器的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內免費在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關鍵詞,就能返回你想要的內容,越精準,寫出的就越詳細,有微信小程序端、在線網頁版、PC客戶端
本文目錄:
一、chatgpt聊天時都有過哪些高情商回答?
1. 把對方拉下水當對方夸獎你的時候,如果你順著對方說,“沒有啦,還行吧?!?,這樣的回答就很普通。這時候,你可以考慮把對方也拉下水。比如說,如果朋友夸你有氣質。你可以這么回答,“對呀,都是被你熏陶的?!痹俦热纾笥芽淠阊酃夂?,你可以這么回答,“那當然了,不然怎么交到像你這么優(yōu)秀的朋友?!比绻笥褤p你,“好久不見,你又胖了啊?!蹦憧梢赃@樣回答,“是呀,看你胖得都喘不上氣來了,我于心不忍,從你身上偷了點肥肉。”兩個人交流的時候,如果一方不停發(fā)問,另一方只是順承地應答。這樣的關系,更像是長輩對晚輩的問話,或者老師對學生的教育。兩個人實際上,是處于不平等的地位。對方是一個評判官,而你是一個被審訊者。為了扭轉這樣的局面,最好的方式,就是把對方拉下水。無論是夸獎還是互損,都是無傷大雅的玩笑話,這比一本正經的聊天,更能加深兩人之間的感情。2. 曲解與夸張在聊天的時候,有時我們會陷入不利的局面。例如,一位男士和一位女士約會,女士說道,“你平時都是這么自戀嗎?”這時候,如果按照正常的思維,順著女士的話來解釋,“你誤會了,我不是這樣的?!蹦惺烤蜁萑氩焕谧约旱膶擂尉置妗_@時候,他可以這樣回答,“哈哈,如果自戀可以當飯吃,我能養(yǎng)活整個印度。”這不僅顯示出自己的幽默,還終止了對自己不利的話題。再比如,朋友對你說,“你可真能吹牛皮”。你可以這么回答,“知道為什么天這么藍嗎?因為我把烏云都吹散了?!毕襁@樣,故意夸大和扭曲對方的談話,既可以避免正面回答問題,還可以顯示出自己的高情商。3. 側面回答。如果對方的問題,你不想直接回答?;蛘撸瑹o論怎么回答,都會對自己不利的時候,你可以選擇側面回答。女士們經常會問自己的男朋友一個無解的問題,“我和你媽都掉入水中,你先救誰?!边@時候,無論男士選擇先救女朋友或者先救媽媽,都是錯。所以,最好的方式,是側面回答。例如,“你這么美,如果掉進水里,無數男人會搶著去救,就算我想救你也輪不到我呀?!边@樣回答,是變著法子夸獎女朋友,她自然不會再為難你了。其實,在大多數情況下,別人問出你一個問題,并不關心你是否能夠給出正確答案。兩人聊天最重要的不是獲取信息,而是營造良好的氛圍。所以,高情商的聊天,并不是死氣沉沉的一問一答。你甚至都不用在意對方的問題是什么,只要給出合乎邏輯的,令人會心一笑的答案,就足夠了。
二、解決網頁出現error1020是怎么回事?有什么方法可以解決?
打開IE瀏覽器,然后點擊打開“工具”選項----Internet選項。
為什么在源文件看不到任何圖片? 網頁文件中存放的只是圖片的鏈接位置,而圖片文件與網頁文件是互相獨立存放的,甚至可以不在同一臺計算機上。
在網頁上點擊鼠標右鍵,選擇菜單中的 “查看源文件” ,就可以通過記事本看到網頁的實際內容??梢钥吹骄W頁實際上只是一個純文本文件。
它通過各式各樣的標記對頁面上的文字、圖片、表格、聲音等元素進行描述(例如字體、顏色、大?。?,而瀏覽器則對這些標記進行解釋并生成頁面,于是就得到你現在所看到的畫面。
三、openai沒有免費額度
有。openai經使用規(guī)則查詢可知,是只有18元的免費額度的。OpenAI是全球最著名的人工智能研究機構,發(fā)布了許多著名的人工智能技術和成果,如大語言模型GPT系列、文本生成圖片預訓練模型DALLE系列。
四、如何評價NumPy的隨機生成器?
明敏 發(fā)自 凹非寺
量子位 報道 | 公眾號 QbitAI
到底是怎樣的一個bug,能讓95%的Pytorch庫中招,就連特斯拉AI總監(jiān)深受困擾?
還別說,這個bug雖小,但有夠“狡猾”的。
這就是最近Reddit上熱議的一個話題,是一位網友在使用再平常不過的Pytorch+Numpy組合時發(fā)現。
最主要的是,在代碼能夠跑通的情況下,它甚至還會影響模型的準確率!
除此之外,網友熱議的另外一個點,竟然是:
而是它到底算不算一個bug?
這究竟是怎么一回事?
事情的起因是一位網友發(fā)現,在PyTorch中用NumPy來生成隨機數時,受到數據預處理的限制,會多進程并行加載數據,但最后每個進程返回的隨機數卻是相同的。
他還舉出例子證實了自己的說法。
如下是一個示例數據集,它會返回三個元素的隨機向量。這里采用的批量大小分別為2,工作進程為4個。
然后神奇的事情發(fā)生了:每個進程返回的隨機數都是一樣的。
這個結果會著實讓人有點一頭霧水,就好像數學應用題求小明走一段路程需要花費多少時間,而你卻算出來了負數。
發(fā)現了問題后,這位網友還在GitHub上下載了超過10萬個PyTorch庫,用同樣的方法產生隨機數。
結果更加令人震驚:居然有超過95%的庫都受到這個問題的困擾!
這其中不乏PyTorch的官方教程和OpenAI的代碼,連特斯拉AI總監(jiān)Karpathy也承認自己“被坑過”!
但有一說一,這個bug想要解決也不難:只需要在每個epoch都重新設置seed,或者用python內置的隨機數生成器就可以避免這個問題。
到底是不是bug?
如果這個問題已經可以解決,為什么還會引起如此大的討論呢?
因為網友們的重點已經上升到了“哲學”層面:
這到底是不是一個bug?
在Reddit上有人認為:這不是一個bug。
雖然這個問題非常常見,但它并不算是一個bug,而是一個在調試時不可以忽略的點。
就是這個觀點,激起了千層浪花,許多人都認為他忽略了問題的關鍵所在。
這不是產生偽隨機數的問題,也不是numpy的問題,問題的核心是在于PyTorch中的DataLoader的實現
對于包含隨機轉換的數據加載pipeline,這意味著每個worker都將選擇“相同”的轉換。而現在NN中的許多數據加載pipeline,都使用某種類型的隨機轉換來進行數據增強,所以不重新初始化可能是一個預設。
另一位網友也表示這個bug其實是在預設程序下運行才出現的,應該向更多用戶指出來。
并且95%以上的Pytorch庫受此困擾,也絕不是危言聳聽。
有人就分享出了自己此前的慘痛經歷:
我認識到這一點是之前跑了許多進程來創(chuàng)建數據集時,然而發(fā)現其中一半的數據是重復的,之后花了很長的時間才發(fā)現哪里出了問題。
也有用戶補充說,如果 95% 以上的用戶使用時出現錯誤,那么代碼就是錯的。
順便一提,這提供了Karpathy定律的另一個例子:即使你搞砸了一些非常基本代碼,“neural nets want to work”。
你有踩過PyTorch的坑嗎?
如上的bug并不是偶然,隨著用PyTorch的人越來越多,被發(fā)現的bug也就越來越多,某乎上還有PyTorch的坑之總結,被瀏覽量高達49w。
其中從向量、函數到model.train(),無論是真bug還是自己出了bug,大家的血淚史還真的是各有千秋。
所以,關于PyTorch你可以分享的經驗血淚史嗎?
歡迎評論區(qū)留言討論~
參考鏈接:
[1]https://tanelp.github.io/posts/a-bug-that-plagues-thousands-of-open-source-ml-projects/
[2]https://www.reddit.com/r/MachineLearning/comments/mocpgj/p_using_pytorch_numpy_a_bug_that_plagues/
[3]https://www.zhihu.com/question/67209417/answer/866488638
— 完 —
以上就是關于openAI圖片生成器相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內容。
推薦閱讀: