Mappoi perche' la maggior parte dei siti usa lo sfondo bianco o molto chiaro?
Consuma batteria dei tablet portatili e telefono. Di notte da fastidio agli occhi ecc ecc
Chiedi all'intelligenza artificialea3, che minghia sono i computer quantistici?
url='https://en.wikipedia.org/wiki/List_of_S%26P_500_companies'
response = urllib.request.urlopen(url).read()
tickers = []
for tr in BeautifulSoup(response,'lxml').find_all('tr')[1:]:
td = tr.find_all('td')
if len(td) != 8:
break
symbol = td[0].text.strip()
name = td[1].text.strip()
tickers.append([symbol, name])
df = pandas.DataFrame(tickers, columns = ['Symbol', 'Name'])
today = datetime.today().strftime('%Y-%m-%d')
file = 'tickers sp500 {}.csv'.format(today)
df.to_csv(file, sep = ';', index=False)
Lo salva dove?Esempio di codice Python che si collega a wikipedia e salva in un file excel la lista dei titoli dell'sp500.
Solo 14 righe, se non e' potenza questa
Python:url='https://en.wikipedia.org/wiki/List_of_S%26P_500_companies' response = urllib.request.urlopen(url).read() tickers = [] for tr in BeautifulSoup(response,'lxml').find_all('tr')[1:]: td = tr.find_all('td') if len(td) != 8: break symbol = td[0].text.strip() name = td[1].text.strip() tickers.append([symbol, name]) df = pandas.DataFrame(tickers, columns = ['Symbol', 'Name']) today = datetime.today().strftime('%Y-%m-%d') file = 'tickers sp500 {}.csv'.format(today) df.to_csv(file, sep = ';', index=False)
nella cartella dove salvi il codice, oppure gli dici tu dove, ad esempio in windowsLo salva dove?
Sulla home?
Il primo punto è assurdo, minimizzi la app o metti lo schermo scuro e nessuno capisce.
Il secondo posso capirlo.
I percorsi su Linux sono come su Windows.nella cartella dove salvi il codice, oppure gli dici tu dove, ad esempio in windows
file = 'c:\\borsa\\tickers sp500 {}.csv'.format(today)
(non so come si scrivono i path in Linux )
Oot
ma devi importare delle librerie per farlo andare, aggiungendo prima
import urllib.request
from bs4 import BeautifulSoup
import pandas
from datetime import datetime
probabilmente pandas e BeautifulSoup non ce le hai, bisogna scaricarle