Bom, na era tecnológica que estamos, percebemos que cada vez mais é exigido dos profissionais, e é onde começa a discussão. A postura que deve ser tomada pelo professor na área de TI.
O que mais se espera do graduado nas áreas de TI é a forma de lidar com os obstáculos diários. E a cada passo que a tecnologia dá, percebe-se um comportamento analítico, curioso por parte do profissional que lança idéias que motivam e cativam o cidadão atual. Desse modo, necessita-se de um comprometimento e um constante papo sobre a importância da TI no decorrer do curso. Apresentando o que cada aluno tem de melhor, tem facilidade de entendimento e discernimento.
Dessa maneira é colocado o professor como um tutor, um conselheiro, mas não que tome decisões e sim incrementar informações já presentes no aluno. Causando uma atividade que demonstre o potencial do aluno em vários quesitos, em várias posições na divisão de tarefas. Sendo o professor um analista que ao perceber tais qualidades, compor uma maneira ideal de lidar com os problemas no curso, tais como deficiências, dentre outros.
Assim, defino o professor como um mentor que dispõe de um conhecimento mais profundo, porém, que se define como aluno-professor. Pois ao decorrer do tempo, e da grande gama de informações há um vácuo no discernimento de alguns temas e novas tecnologias. Algo a ser ensinado mutuamente.
Fonte:
http://www.seplan.am.gov.br/adm/imgeditor/file/art_nilson_pimentel/9Chegou%20a%20Temporada%20dos%20TIs.pdf
segunda-feira, 22 de junho de 2009
domingo, 31 de maio de 2009
Linguagens de Programação
Bom, hoje irei falar sobre duas linguagens de programação. O PHP e o Java.
PHP
Surgiu por volta de 1994, como um pacote de programas CGI(tecnologia que permite gerar páginas dinâmicas) criados por Rasmus Lerdof, com o nome Personal Home Page Tools, para substituir um conjunto de scripts Perl que ele usava no desenvolvimento de sua página pessoal. Mais tarde, Zeev Suraski desenvolveu o analisador do PHP 3 que contava com o primeiro recurso de orientação a objetos, que dava poder de alcançar alguns pacotes, tinha herança e dava aos desenvolvedores somente a possibilidade de implementar propriedades e métodos.
É uma linguagem de programação de computadores interpretada, livre, estruturada e muito utilizada para gerar conteúdo dinâmico na World Wide Web.
Trata-se de uma linguagem extremamente modularizada, o que a torna ideal para instalação e uso em servidores web. Além disso, independe da plataforma. É muito parecida, em tipos de dados, sintaxe e mesmo funções, com a linguagem C e com a C++. Pode ser, dependendo da configuração do servidor, embarcada no código HTML.
A linguagem PHP é uma linguagem de programação de domínio específico, ou seja, seu escopo se estende a um campo de atuação que é o desenvolvimento web, embora tenha variantes como o PHP-GTK(Proporciona uma interface orientada a objeto para as classes e funções do GTK+ e simplifica, e muito, o desenvolvimento de aplicações desktop multi-plataforma). Seu propósito principal é de implementar soluções web velozes, simples e eficientes.
Java
Em 1991, na Sun Microsystems, foi iniciado o Green Project, o berço do Java, uma linguagem de programação orientada a objetos. Os mentores do projeto eram Patrick Naughton, Mike Sheridan, e James Gosling. O objetivo do projeto não era a criação de uma nova linguagem de programação, mas antecipar e planejar a “próxima onda” do mundo digital. Eles acreditavam que, em algum tempo, haveria uma convergência dos computadores com os equipamentos e eletrodomésticos comumente usados pelas pessoas no seu dia-a-dia.
Desde seu lançamento, em maio de 1995, a plataforma Java foi adotada mais rapidamente do que qualquer outra linguagem de programação na história da computação. Java tornou-se popular pelo seu uso na Internet e hoje possui seu ambiente de execução presente em web browsers, mainframes, SOs, celulares, palmtops e cartões inteligentes, entre outros.
A linguagem Java foi projetada tendo em vista os seguintes objetivos:
• Orientação a objeto - Baseado no modelo de Smalltalk e Simula67;
• Portabilidade - Independência de plataforma - "write once, run anywhere";
• Recursos de Rede - Possui extensa biblioteca de rotinas que facilitam a cooperação com protocolos TCP/IP, como HTTP e FTP;
• Segurança - Pode executar programas via rede com restrições de execução;
Além disso, podem-se destacar outras vantagens apresentadas pela linguagem:
• Sintaxe similar a Linguagem C/C++ e principalmente, a C#.
• Facilidades de Internacionalização - Suporta nativamente caracteres Unicode;
• Simplicidade na especificação, tanto da linguagem como do "ambiente" de execução (JVM);
• É distribuída com um vasto conjunto de bibliotecas (ou APIs);
• Possui facilidades para criação de programas distribuídos e multitarefa (múltiplas linhas de execução num mesmo programa);
• Desalocação de memória automática por processo de coletor de lixo (garbage collector);
• Carga Dinâmica de Código - Programas em Java são formados por uma coleção de classes armazenadas independentemente e que podem ser carregadas no momento de utilização.
http://pt.wikipedia.org/wiki/PHP
http://www.php.net/
http://pt.wikipedia.org/wiki/Java_(linguagem_de_programa%C3%A7%C3%A3o)
http://java.sun.com/
PHP
Surgiu por volta de 1994, como um pacote de programas CGI(tecnologia que permite gerar páginas dinâmicas) criados por Rasmus Lerdof, com o nome Personal Home Page Tools, para substituir um conjunto de scripts Perl que ele usava no desenvolvimento de sua página pessoal. Mais tarde, Zeev Suraski desenvolveu o analisador do PHP 3 que contava com o primeiro recurso de orientação a objetos, que dava poder de alcançar alguns pacotes, tinha herança e dava aos desenvolvedores somente a possibilidade de implementar propriedades e métodos.
É uma linguagem de programação de computadores interpretada, livre, estruturada e muito utilizada para gerar conteúdo dinâmico na World Wide Web.
Trata-se de uma linguagem extremamente modularizada, o que a torna ideal para instalação e uso em servidores web. Além disso, independe da plataforma. É muito parecida, em tipos de dados, sintaxe e mesmo funções, com a linguagem C e com a C++. Pode ser, dependendo da configuração do servidor, embarcada no código HTML.
A linguagem PHP é uma linguagem de programação de domínio específico, ou seja, seu escopo se estende a um campo de atuação que é o desenvolvimento web, embora tenha variantes como o PHP-GTK(Proporciona uma interface orientada a objeto para as classes e funções do GTK+ e simplifica, e muito, o desenvolvimento de aplicações desktop multi-plataforma). Seu propósito principal é de implementar soluções web velozes, simples e eficientes.
Java
Em 1991, na Sun Microsystems, foi iniciado o Green Project, o berço do Java, uma linguagem de programação orientada a objetos. Os mentores do projeto eram Patrick Naughton, Mike Sheridan, e James Gosling. O objetivo do projeto não era a criação de uma nova linguagem de programação, mas antecipar e planejar a “próxima onda” do mundo digital. Eles acreditavam que, em algum tempo, haveria uma convergência dos computadores com os equipamentos e eletrodomésticos comumente usados pelas pessoas no seu dia-a-dia.
Desde seu lançamento, em maio de 1995, a plataforma Java foi adotada mais rapidamente do que qualquer outra linguagem de programação na história da computação. Java tornou-se popular pelo seu uso na Internet e hoje possui seu ambiente de execução presente em web browsers, mainframes, SOs, celulares, palmtops e cartões inteligentes, entre outros.
A linguagem Java foi projetada tendo em vista os seguintes objetivos:
• Orientação a objeto - Baseado no modelo de Smalltalk e Simula67;
• Portabilidade - Independência de plataforma - "write once, run anywhere";
• Recursos de Rede - Possui extensa biblioteca de rotinas que facilitam a cooperação com protocolos TCP/IP, como HTTP e FTP;
• Segurança - Pode executar programas via rede com restrições de execução;
Além disso, podem-se destacar outras vantagens apresentadas pela linguagem:
• Sintaxe similar a Linguagem C/C++ e principalmente, a C#.
• Facilidades de Internacionalização - Suporta nativamente caracteres Unicode;
• Simplicidade na especificação, tanto da linguagem como do "ambiente" de execução (JVM);
• É distribuída com um vasto conjunto de bibliotecas (ou APIs);
• Possui facilidades para criação de programas distribuídos e multitarefa (múltiplas linhas de execução num mesmo programa);
• Desalocação de memória automática por processo de coletor de lixo (garbage collector);
• Carga Dinâmica de Código - Programas em Java são formados por uma coleção de classes armazenadas independentemente e que podem ser carregadas no momento de utilização.
http://pt.wikipedia.org/wiki/PHP
http://www.php.net/
http://pt.wikipedia.org/wiki/Java_(linguagem_de_programa%C3%A7%C3%A3o)
http://java.sun.com/
segunda-feira, 25 de maio de 2009
Relação do Curso com os desafios da SBC
Hoje, falarei um pouco da relação de algumas disciplinas com os desafios da SBC.
- Estrutura de Dados - é o ramo da computação que aborda meios de organizar os dados para atender aos diversos requisitos de processamento.
- Desenvolvimento de Software - aplica os processos da Engenharia do Software juntamente com a necessidade do produto para implementar software. Assim, utiliza ferramentas para a construção do software de maneira que atenda às necessidades de uso do software.
- Interface Humano-Computador - é uma área que correlaciona outras disciplinas, é o estudo da relação entre computadores e máquinas para atender a sistemas cuja complexidade é a maneira de que irá relacionar suas ações com as de um humano aumentando as possibilidades de construção de sistemas aderentes a uma determinada necessidade.
segunda-feira, 11 de maio de 2009
BlueWater, o supercomputador
Apesar de já ser aprovado em agosto de 2007, o BlueWater, da IBM, impressiona pela capacidade de processamento, e será o primeiro computador em escala Peta na história da computação.
Se você está pensando que um quad-core impressiona, imagine um processador com 200 mil nucleos!! Ou seja, 2 petaflops de processamento, 1 petabyte de memoria e 10 petabytes de armazenamento. Valores esses correspondentes a estudos teóricos.
Bom, um peta só corresponde a 10 elevado a 15 potência de bytes, pouco não??
Esse experimento custará uma regalia de somente $208 milhões de dólares.Cmo não é um supercomputador barato, a IBM entrou numa parceria com os E.U.National Science Foundation, que recebeu luz verde dos Estados Unidos National Science.
Só para comparar, o supercomputador mais rápido do mundo atual, o Blue Gene(imagem abaixo) da IBM possui 1/3 da capacidade de processamento esperado pelo Blue Waters.

Irá ser constantemente ocupado trabalhando com projetos da Defense Advanced Research Projects Agency, ou DARPA, que é o braço direito de investigação do pentágono.
Será usado para simulações na medicina, meteorologia, biofísica, bioquímica, estudar buracos negros e medicina molecular.
Seu término é esperado para 2011.
Fontes
Se você está pensando que um quad-core impressiona, imagine um processador com 200 mil nucleos!! Ou seja, 2 petaflops de processamento, 1 petabyte de memoria e 10 petabytes de armazenamento. Valores esses correspondentes a estudos teóricos.
Bom, um peta só corresponde a 10 elevado a 15 potência de bytes, pouco não??
Esse experimento custará uma regalia de somente $208 milhões de dólares.Cmo não é um supercomputador barato, a IBM entrou numa parceria com os E.U.National Science Foundation, que recebeu luz verde dos Estados Unidos National Science.
Só para comparar, o supercomputador mais rápido do mundo atual, o Blue Gene(imagem abaixo) da IBM possui 1/3 da capacidade de processamento esperado pelo Blue Waters.

Irá ser constantemente ocupado trabalhando com projetos da Defense Advanced Research Projects Agency, ou DARPA, que é o braço direito de investigação do pentágono.
Será usado para simulações na medicina, meteorologia, biofísica, bioquímica, estudar buracos negros e medicina molecular.
Seu término é esperado para 2011.
Fontes
- http://www.newlaunches.com/archives/university_of_illinois_to_get_blue_water_the_worlds_fastest_public_supercomputer.php
- http://www.gadgettastic.com/2008/09/05/blue-waters-world%E2%80%99s-first-petascale-supercomputer-costing-around-208-million/
- http://news.softpedia.com/news/Universities-And-Supercomputers-62630.shtml
segunda-feira, 4 de maio de 2009
Debug.exe e Assembler
Nesse post irei comentar sobre o Debug.exe e alguns comandos do Assembler.
Debug.exe é um comando que funciona no DOS, MS-DOS e outros S.O.s. Ele roda o programa debug.exe que verifica programas permitindo ao usuário interativamente examinar o conteúdo da memória(em linguagem assembly, hexadecimal ou ASCII), modificar e seletivamente executar arquivos com, exe e outros tipos. Possui vários subcomandos que são usados para o acesso específico em setores de disco, portas de Entrada e Saída(I/O) e endereços de memória.
Assembler é um programa usado para traduzir declarações em linguagem assembly dentro do código de máquina do computador alvo.
Foram colocados em pesquisa esses comandos:
0CF2:0100 mov cx,100
0CF2:0103 mov ah, 2
0CF2:0105 mov dl, cl
0CF2:0107 int 21
0CF2:0109 loop 103
O comando mov é utilizado para mover o valor do segundo operando no registrador indicado pelo primeiro operando.No primeiro comando, coloca o valor 100 no cx(registrador acumulador).
No segundo, move o valor 2 para o registrador ah.
No 3º move o registrador cl para o registrador dl
O comando int indica uma interrupção, assim que é encontrada uma INT no código, o programa recorre a esta interrupção. Uma interrupção aponta para um programinha, como aquele da Bios, porém não precisa sernecessáriamente um programinha da Bios, existem outros.
Fontes:
http://magnum.ime.uerj.br/~alexszt/cursos/softsis/material/asm/tutasm/
http://br.groups.yahoo.com/group/ma_list/message/113
Debug.exe é um comando que funciona no DOS, MS-DOS e outros S.O.s. Ele roda o programa debug.exe que verifica programas permitindo ao usuário interativamente examinar o conteúdo da memória(em linguagem assembly, hexadecimal ou ASCII), modificar e seletivamente executar arquivos com, exe e outros tipos. Possui vários subcomandos que são usados para o acesso específico em setores de disco, portas de Entrada e Saída(I/O) e endereços de memória.
Assembler é um programa usado para traduzir declarações em linguagem assembly dentro do código de máquina do computador alvo.
Foram colocados em pesquisa esses comandos:
0CF2:0100 mov cx,100
0CF2:0103 mov ah, 2
0CF2:0105 mov dl, cl
0CF2:0107 int 21
0CF2:0109 loop 103
O comando mov é utilizado para mover o valor do segundo operando no registrador indicado pelo primeiro operando.No primeiro comando, coloca o valor 100 no cx(registrador acumulador).
No segundo, move o valor 2 para o registrador ah.
No 3º move o registrador cl para o registrador dl
O comando int indica uma interrupção, assim que é encontrada uma INT no código, o programa recorre a esta interrupção. Uma interrupção aponta para um programinha, como aquele da Bios, porém não precisa sernecessáriamente um programinha da Bios, existem outros.
Fontes:
http://magnum.ime.uerj.br/~alexszt/cursos/softsis/material/asm/tutasm/
http://br.groups.yahoo.com/group/ma_list/message/113
Regulamentação da Informática.
Bom, esse debate coloca em pauta questões antagônicas e que geram incertezas aos profissionais na área de Informática. De início, a regulamentação provém uma segurança aos graduados, já que não será qualquer curioso que poderá dar suporte ou planejar sistemas.
Mas, no entanto, o diploma por si só não é necessário para comprovar o exercício profissional do atuante na área de Computação. E aí entram suposições e fatos, cujos atacam a questão de não ser graduado mas ser capaz de manipular as ferramentas da computação.
Antes de serem colocados cursos de nível superior, eram profissionais ligados à Física, Engenheiros e ligados às exatas manipulavam os computadores da época. Está aí um fato.
E aos curiosos que dão suporte, sim, aquela boa manutenção, que o vizinho curioso executa, como fica?
É nesse ponto que eu, como estudante ligado à área da informática fico a favor da regulamentação. Sim, pois a não regulamentação abriria uma brecha aos não graduados e às empresas, que sempre querem pagar menos, e sabendo que um não graduado tem um conhecimento específico na área de seu interesse, prefere pagar menos, do que em um profissional, sem saber é claro das suas aptidões na área da informática.
E sim, há muitas oportunidades para um não graduado formar-se e ter um conhecimento mais vasto.
Mas, no entanto, o diploma por si só não é necessário para comprovar o exercício profissional do atuante na área de Computação. E aí entram suposições e fatos, cujos atacam a questão de não ser graduado mas ser capaz de manipular as ferramentas da computação.
Antes de serem colocados cursos de nível superior, eram profissionais ligados à Física, Engenheiros e ligados às exatas manipulavam os computadores da época. Está aí um fato.
E aos curiosos que dão suporte, sim, aquela boa manutenção, que o vizinho curioso executa, como fica?
É nesse ponto que eu, como estudante ligado à área da informática fico a favor da regulamentação. Sim, pois a não regulamentação abriria uma brecha aos não graduados e às empresas, que sempre querem pagar menos, e sabendo que um não graduado tem um conhecimento específico na área de seu interesse, prefere pagar menos, do que em um profissional, sem saber é claro das suas aptidões na área da informática.
E sim, há muitas oportunidades para um não graduado formar-se e ter um conhecimento mais vasto.
segunda-feira, 20 de abril de 2009
Configurando meu computador
Quase todos os computadores trabalham sob a chamada “arquitetura de von Neumann”, proposta no final da década de 40 por John von Neumann. O método divide um computador em quatro seções: a ULA (unidade lógica e aritmética), a unidade de controle, a memória e os dispositivos de entrada e saída (E/S ou I/O). Tais setores comunicam-se por fios ou barramentos.
Processador -meu computador usa um Intel Core2Duo 2.00Ghz com 2mb de cache. A nomenclatura 2Duo simboliza que o processador possui dois nucleos de processamento. Os 2.00GHz bom, o Hz é uma medida de frequencia, ciclos por segundo, no computador instruções por segundo, assim equivale a 2 bilhões de instruções por segundo.
O cache é um dispositivo de acesso rápido, interno a um sistema, que serve de intermediário entre um operador de um processo e o dispositivo de armazenamento ao qual esse operador acede, evitando o acesso ao dispositivo de armazenamento - que pode ser demorado -, armazenando os dados em meios de acesso mais rápidos .
Mas é claro que a velocidade do computador não depende somente do processador também da memória ram e do acesso ao disco rígido.
Memoria - A memória de um computador é normalmente dividida entre primária e secundária. A primária é classificada como RAM (Random Acess Memory ou Memória de Acesso Aleatório) e memória ROM (Read Only Memory ou Memória Somente de Leitura). A RAM permite tanto a leitura como a gravação e regravação de dados. Porém, quando o usuário desliga o computador, esse tipo de memória perde todos os seus dados. Possuo uma memória de 2Mb, tipo DDR2 e frequencia de 667 MHz.A DDR2 é uma evolução ao antigo padrão DDR SDRAM, conforme homologação da JEDEC. A nova tecnologia DDR2 veio com a promessa de aumentar o desempenho, diminuir o consumo elétrico e o aquecimento, aumentar a densidade e minimizar a interferência eletromagnética (ruído).
A Memória Secundária (Rom), é utilizada para gravar imensas quantidades de dados, que também não são perdidos quando você desliga seu PC, mesmo que depois fique um bom tempo sem usá-lo. O Disco Rígido (HD) é o principal meio para se gravar informações no computador. O Hd do meu pc é um Sata de 160 GB, 5400 RPM. SATA é o padrão de discos rígidos criado para substituir os discos ATA, também conhecidos como IDE. A taxa de transferência máxima teórica de um disco Serial ATA é de 150 MB/s ou 300 MB/s, contra os 133 MB/s de um disco rígido IDE.
Dispositivos de Entrada - os mais comuns são teclado e mouse.
Dispositivos de Saída - Monitor.
Barramentos - é um conjunto de circuitos e linhas de comunicação que se ligam ao resto do PC com a finalidade de possibilitar a expansão de periféricos e a instalação de novas placas no PC.
Permitem a conexão de dispositivos como:
Placa gráfica - melhor o desempenho de programas que necessiam de uma interface gráfica.Uso uma Intel Graphics Media Accelerator X3100 que é onboard (quando a placa-mãe integra outros dispositivos)
Mouse
Teclado
etc
Minha placa-mãe possui barramentos USB (o padrão atual de conecção, conecta mouses, teclados, impressoras, enfim, é o conector universal.) e o PCI-Express O PCI Express é um barramento ponto a ponto, onde cada periférico possui um canal exclusivo de comunicação com o chipset. Isto contrasta fortemente com o padrão PCI, que é um barramento em que todos os dispositivos compartilham a mesma comunicação, de 32 bits (ou 64 bits), num caminho paralelo, no meu caso, conecta à minha placa de vídeo.
Processador -meu computador usa um Intel Core2Duo 2.00Ghz com 2mb de cache. A nomenclatura 2Duo simboliza que o processador possui dois nucleos de processamento. Os 2.00GHz bom, o Hz é uma medida de frequencia, ciclos por segundo, no computador instruções por segundo, assim equivale a 2 bilhões de instruções por segundo.
O cache é um dispositivo de acesso rápido, interno a um sistema, que serve de intermediário entre um operador de um processo e o dispositivo de armazenamento ao qual esse operador acede, evitando o acesso ao dispositivo de armazenamento - que pode ser demorado -, armazenando os dados em meios de acesso mais rápidos .
Mas é claro que a velocidade do computador não depende somente do processador também da memória ram e do acesso ao disco rígido.
Memoria - A memória de um computador é normalmente dividida entre primária e secundária. A primária é classificada como RAM (Random Acess Memory ou Memória de Acesso Aleatório) e memória ROM (Read Only Memory ou Memória Somente de Leitura). A RAM permite tanto a leitura como a gravação e regravação de dados. Porém, quando o usuário desliga o computador, esse tipo de memória perde todos os seus dados. Possuo uma memória de 2Mb, tipo DDR2 e frequencia de 667 MHz.A DDR2 é uma evolução ao antigo padrão DDR SDRAM, conforme homologação da JEDEC. A nova tecnologia DDR2 veio com a promessa de aumentar o desempenho, diminuir o consumo elétrico e o aquecimento, aumentar a densidade e minimizar a interferência eletromagnética (ruído).
A Memória Secundária (Rom), é utilizada para gravar imensas quantidades de dados, que também não são perdidos quando você desliga seu PC, mesmo que depois fique um bom tempo sem usá-lo. O Disco Rígido (HD) é o principal meio para se gravar informações no computador. O Hd do meu pc é um Sata de 160 GB, 5400 RPM. SATA é o padrão de discos rígidos criado para substituir os discos ATA, também conhecidos como IDE. A taxa de transferência máxima teórica de um disco Serial ATA é de 150 MB/s ou 300 MB/s, contra os 133 MB/s de um disco rígido IDE.
Dispositivos de Entrada - os mais comuns são teclado e mouse.
Dispositivos de Saída - Monitor.
Barramentos - é um conjunto de circuitos e linhas de comunicação que se ligam ao resto do PC com a finalidade de possibilitar a expansão de periféricos e a instalação de novas placas no PC.
Permitem a conexão de dispositivos como:
Placa gráfica - melhor o desempenho de programas que necessiam de uma interface gráfica.Uso uma Intel Graphics Media Accelerator X3100 que é onboard (quando a placa-mãe integra outros dispositivos)
Mouse
Teclado
etc
Minha placa-mãe possui barramentos USB (o padrão atual de conecção, conecta mouses, teclados, impressoras, enfim, é o conector universal.) e o PCI-Express O PCI Express é um barramento ponto a ponto, onde cada periférico possui um canal exclusivo de comunicação com o chipset. Isto contrasta fortemente com o padrão PCI, que é um barramento em que todos os dispositivos compartilham a mesma comunicação, de 32 bits (ou 64 bits), num caminho paralelo, no meu caso, conecta à minha placa de vídeo.
segunda-feira, 13 de abril de 2009
Grandes Desafios 2006 - 2016
O Seminário “Grandes Desafios de Pesquisa em Computação no Brasil: 2006 – 2016, realizado em São Paulo nos dias 8 e 9 de maio de 2006, reuniu vários pesquisadores e idéias a respeito do avanço da computação. Espelhados em outros eventos internacionais, discutiram sobre os benefícios da busca da solução para o problema, do sucesso do avanço das pesquisas sobre o problema, da elaboração das dificuldades e barreiras para obter sucesso na área em questão e proposta de ações que deveriam ser tomadas para se enfrentar o desafio em um período de dez anos. Bom, os cinco desafios apresentados foram:
1. Gestão da Informação em grandes volumes de dados multimídia distribuídos.
2. Modelagem computacional de sistemas complexos artificiais, naturais e sócio-culturais e da interação homem-natureza.
3. Impactos para a área da computação da transição do silício para novas tecnologias.
4. Acesso participativo e universal do cidadão brasileiro ao conhecimento.
5. Desenvolvimento tecnológico de qualidade: sistemas disponíveis, corretos, seguros,escaláveis, persistentes e ubíquos.
Do 1º desafio, vem à tona uma das maiores crises da atualidade, a grande gama de informações publicadas nos diversos meios de comunicação, mas, para onde vão todas essas informações? O objetivo deste desafio é, assim,desenvolver soluções para o tratamento, a recuperação e a disseminação de informação relevante, de natureza tanto narrativa quanto descritiva, a partir de volumes exponencialmente crescentes de dados multimídia. Analisando os objetivos, dificuldades, percebe-se que há uma forte ligação com a parte de hardware, que como exposto, processa dados cada vez mais rápido, facilitando o acesso e também a ligação com banco de dados, que fornece um modelo organizado e econômico, pois facilita o acesso aos dados e os torna mais eficazes. E para interagir, há uma contribuição da arte, que tanto facina os nativos atuais da computação, com a criatividade de difundir informações por meio de atos criativos como aplicações inteligentes, bem exemplificada por esse ato que executo neste momento, os blogs. E a linguística, que atualiza-se com termos e regionalizações bem adequadas para o fácil entendimento.
Do 2º desafio é possível extrair uma dificuldade que é os testes para definição de risco e solução dos problemas que envolvem desde a saúde até a computação. Para isso, são definidos sistemas de simulação que promovem uma resposta bastante aceitável para o problema. Que necessita o auxílio de um programa bem formulado, que una eficácia e realidade, que são domínios das bases teóricas da Estrutura de Dados e dos algoritmos inteligentes formulados na Engenharia do Software. E para tornar realista o projeto, é necessário envolver basicamente todas as áreas do conhecimento, pois esse desafio nada mais é do que um simulador que objetiva simplificar os problemas tornando-os disponíveis para um fácil entendimento.
O 3º desafio aborda uma questão existencial do ser humano, que é movido por avanços tecnológicos, biológicos e socias, a máquina também sofre interferências que geram barreiras para o avanço do homem. Como observado no componente principal do computador, o processador, que vem diminuindo à medida em que mais dados são necessários para o desenvolvimento do homem, e processando cada vez mais, com um porém, pois gera um desperdício, a dissipação da potência que gera calor, mas, a solução veio à tona, processadores com múltiplos núcleos. Mas, ocorre outro problema, a relação energia-desempenho. E devido a esses empecilhos, a computação está procurando abstração para otimizar, achado na Engenharia do Software e na Estrutura de Dados. Investigar novos modelos de arquiteturas com o auxílio da cadeira de Arquitetura de Computadores. Além do auxílio da Física para minimizar o consumo de energia e a provável Biologia auxiliando na utilização de mecanismos biológicos para a resolução de problemas.
Com o 4º desafio vem um grande problema social, o acesso de todo cidadão ao conhecimento. Essa dificuldade provêm de diferenças sócio-econômicas e culturais. O objetivo é colocar em pauta que o cidadão não necessita somente obeter conhecimento, mas que ele é capaz de gerar conhecimento . E para isso acontecer necessita-se a extensão de sistemas computacionais ao cidadão comum, respeitando suas diferenças. É necessário produzir tecnologia que motive a participação de usuários na produção do conhecimento e do seu uso. O problema é difícil porque não há experiências nas quais podemos espelhar. Deve haver uma interlocução com as Ciências Sociais, para permitir a participação e decisão na produção do conhecimento. E na computação a área de Design Gráfico é decisiva para haver interfaces atraentes e flexíveis a todos os públicos.
Finalizando com o 5º desafio, que coloca em discussão um outro grande problema da atualidade. A participação cada vez maior de tecnologias em qualquer atividade social, política e econômica do homem. Colocando ainda a questão da segurança que tanto é atribuída a sistemas, que tornam-se ainda mais potentes, decisivos e usuais. Mas, esquecendo que as falhas estão presentes mas, para evitá-las é necessário haver uma análise de necessidade. Enfim, viabiliza mostrar que é necessário muito investimento e análise para que se consigam sistemas fieis, que não violem a privacidade muito menos a segurança. Para se sustentar, necessita-se das cadeiras de Segurança de Redes e Tolerância a Falhas. Interloca-se também com a ética da Sociologia para a viabilização dos sistemas para uso em determinada atividade.
1. Gestão da Informação em grandes volumes de dados multimídia distribuídos.
2. Modelagem computacional de sistemas complexos artificiais, naturais e sócio-culturais e da interação homem-natureza.
3. Impactos para a área da computação da transição do silício para novas tecnologias.
4. Acesso participativo e universal do cidadão brasileiro ao conhecimento.
5. Desenvolvimento tecnológico de qualidade: sistemas disponíveis, corretos, seguros,escaláveis, persistentes e ubíquos.
Do 1º desafio, vem à tona uma das maiores crises da atualidade, a grande gama de informações publicadas nos diversos meios de comunicação, mas, para onde vão todas essas informações? O objetivo deste desafio é, assim,desenvolver soluções para o tratamento, a recuperação e a disseminação de informação relevante, de natureza tanto narrativa quanto descritiva, a partir de volumes exponencialmente crescentes de dados multimídia. Analisando os objetivos, dificuldades, percebe-se que há uma forte ligação com a parte de hardware, que como exposto, processa dados cada vez mais rápido, facilitando o acesso e também a ligação com banco de dados, que fornece um modelo organizado e econômico, pois facilita o acesso aos dados e os torna mais eficazes. E para interagir, há uma contribuição da arte, que tanto facina os nativos atuais da computação, com a criatividade de difundir informações por meio de atos criativos como aplicações inteligentes, bem exemplificada por esse ato que executo neste momento, os blogs. E a linguística, que atualiza-se com termos e regionalizações bem adequadas para o fácil entendimento.
Do 2º desafio é possível extrair uma dificuldade que é os testes para definição de risco e solução dos problemas que envolvem desde a saúde até a computação. Para isso, são definidos sistemas de simulação que promovem uma resposta bastante aceitável para o problema. Que necessita o auxílio de um programa bem formulado, que una eficácia e realidade, que são domínios das bases teóricas da Estrutura de Dados e dos algoritmos inteligentes formulados na Engenharia do Software. E para tornar realista o projeto, é necessário envolver basicamente todas as áreas do conhecimento, pois esse desafio nada mais é do que um simulador que objetiva simplificar os problemas tornando-os disponíveis para um fácil entendimento.
O 3º desafio aborda uma questão existencial do ser humano, que é movido por avanços tecnológicos, biológicos e socias, a máquina também sofre interferências que geram barreiras para o avanço do homem. Como observado no componente principal do computador, o processador, que vem diminuindo à medida em que mais dados são necessários para o desenvolvimento do homem, e processando cada vez mais, com um porém, pois gera um desperdício, a dissipação da potência que gera calor, mas, a solução veio à tona, processadores com múltiplos núcleos. Mas, ocorre outro problema, a relação energia-desempenho. E devido a esses empecilhos, a computação está procurando abstração para otimizar, achado na Engenharia do Software e na Estrutura de Dados. Investigar novos modelos de arquiteturas com o auxílio da cadeira de Arquitetura de Computadores. Além do auxílio da Física para minimizar o consumo de energia e a provável Biologia auxiliando na utilização de mecanismos biológicos para a resolução de problemas.
Com o 4º desafio vem um grande problema social, o acesso de todo cidadão ao conhecimento. Essa dificuldade provêm de diferenças sócio-econômicas e culturais. O objetivo é colocar em pauta que o cidadão não necessita somente obeter conhecimento, mas que ele é capaz de gerar conhecimento . E para isso acontecer necessita-se a extensão de sistemas computacionais ao cidadão comum, respeitando suas diferenças. É necessário produzir tecnologia que motive a participação de usuários na produção do conhecimento e do seu uso. O problema é difícil porque não há experiências nas quais podemos espelhar. Deve haver uma interlocução com as Ciências Sociais, para permitir a participação e decisão na produção do conhecimento. E na computação a área de Design Gráfico é decisiva para haver interfaces atraentes e flexíveis a todos os públicos.
Finalizando com o 5º desafio, que coloca em discussão um outro grande problema da atualidade. A participação cada vez maior de tecnologias em qualquer atividade social, política e econômica do homem. Colocando ainda a questão da segurança que tanto é atribuída a sistemas, que tornam-se ainda mais potentes, decisivos e usuais. Mas, esquecendo que as falhas estão presentes mas, para evitá-las é necessário haver uma análise de necessidade. Enfim, viabiliza mostrar que é necessário muito investimento e análise para que se consigam sistemas fieis, que não violem a privacidade muito menos a segurança. Para se sustentar, necessita-se das cadeiras de Segurança de Redes e Tolerância a Falhas. Interloca-se também com a ética da Sociologia para a viabilização dos sistemas para uso em determinada atividade.
Introdução à SBC
A Sociedade Brasileira de Computação é uma entidade que defende e promove o desenvolvimento cientifico e tecnológico do pais na área de computação. Fundada em 1978 e formada por professores, pesquisadores, estudantes e profissionais da computação, atua em eventos científicos, publicações, na educação e na política. Na sua estrutura, destacam-se as secretarias regionais, que no total são 15, dentre elas, a Nordeste 3 que abrange os estados da Bahia, Sergipe e Alagoas. Na sua agenda, há o Congresso da SBC, o grande encontro anual da SBC, onde há eventos políticos, científicos e educacionais. Nesse ano será em julho de 2009, em Bento Gonçalves, no Rio Grande do Sul. Além da Jornada da Atualização em Informática, onde são abordados temas em discussão na área da computação. Mas, a SBC promove publicações: Anais dos Simpósios Científicos, a Revista de Iniciação Científica, que é on-line e a revista Computação Brasil, que aborda interesses da área de Computação. Bom, há também os Grandes Desafios 2006-2016, mas, para não ampliar muito o post, irei explicar no próximo.
segunda-feira, 30 de março de 2009
O que esperar do curso
Bem, o curso abrange diversas áreas da computação. Desde a ética até a criação de softwares. Isso se tornou um desafio enorme visto por todos que é muito dificil ser concluido, basta ir no DCOMP e ver a conclusão das turmas. Mas, isso não é um obstáculo e sim uma motivação. E o resultado final vai muito além do esperado, pois as competências profissionais, habilidades adquiridas tornam um profissional completo. Só de saber o poder de criação, de gestão de dados, da Inteligência Artificial, é muito motivante, mas há muito a caminhar.
Escolhas
Quando mais jovem, ao perceber o potencial de criação do computador, fiquei curioso sobre como são criados os vários programas, mas até ai nada demais. Ao aderir à internet e descobrir que os softwares estão em todos os eletrônicos, decidi que aquela gama de informações me facinava. Foi a partir disso que escolhi Ciência da Computação. Mas, não sabia o que realmente se fazia no curso, até que tive contato com o curso de Desenvolvimento de Sistemas no CEFET, foi aí que descobri o que era programar, e ao tomar conhecimento das linguagens de programação, confirmei a minha decisão de cursar Ciência da Computação.
Lógica: criação e contribuições
Somos apresentados à lógica por dois dos seus princípios centrais, o princípio da bivalência (segundo o qual para toda proposição, ela ou a sua negação é verdadeira) e a lei da não contradição (nenhuma afirmação pode ser verdadeira e falsa ao mesmo tempo).
Aristóteles foi o criador da lógica, um instrumento para o pensamento, que baseia-se no silogismo, que é nada mais que uma argumentação logica, de três proposições. homem é mortal.
Sócrates é homem.
Logo, Sócrates é mortal.
Em sua obra principal, o Organon, há o conjunto das obras lógicas de Aristóteles. Na sua lógica há duas lógicas, a Formal e a Material. A Formal lida com a relação entre conceitos, preocupando basicamente com a estrutura do raciocínio. A Material na qual há a afirmação o argumento é válido quando as premissas (o que vêm antes de alguma conclusão ou dedução) são verdadeiras e se relacionam adequadamente à conclusão. Desse modo, Aristóteles criou o primeiro estudo formal do raciocínio.
Ao aplicar a matemática na lógica, idéia desenvolvida no opúsculo (pequena obra) "The Mathematics Analysis of Logic", Boole deu origem à Algebra de Boole. A essência do método booleano consiste na aplicação de símbolos às operações lógicas. Mediante a manipulação deles, seguindo mecanismos similares aos da álgebra, é possível extrair conclusões das premissas iniciais.
Entre a filosofia e a matemática, Frege foi o principal criador da lógica matemática moderna, sendo considerado, ao lado de Aristóteles, o maior lógico de todos os tempos. O que contribuiu para sua revolução foi a criação de um sistema de representação simbólica (Begriffsschrift, conceitografia ou ideografia) para representar em símbolos (As expressões "para todo o x", "existe um x", que denotam operações de quantificação sobre variáveis têm na obra de Frege uma de suas origens) a estrutura dos enunciados lógicos e suas relações, e ter contribuído para a implementação do cálculo dos predicados, cujo se desenvolve da decomposição funcional da estrutura interna das frases (em parte substituindo a velha dicotomia sujeito-predicado, herdada da tradição lógica Aristotélica, pela oposição matemática função-argumento) e da articulação do conceito de quantificação (implícito na lógica clássica da generalidade), tornado assim possível a sua manipulação em regras de dedução formal.
Fontes:
http://pt.wikipedia.org/wiki/Lógica
http://pt.wikipedia.org/wiki/George_Boole
http://pt.wikipedia.org/wiki/%C3%81lgebra_booleana
http://pt.wikipedia.org/wiki/Gottlob_Frege
Aristóteles foi o criador da lógica, um instrumento para o pensamento, que baseia-se no silogismo, que é nada mais que uma argumentação logica, de três proposições. homem é mortal.
Sócrates é homem.
Logo, Sócrates é mortal.
Em sua obra principal, o Organon, há o conjunto das obras lógicas de Aristóteles. Na sua lógica há duas lógicas, a Formal e a Material. A Formal lida com a relação entre conceitos, preocupando basicamente com a estrutura do raciocínio. A Material na qual há a afirmação o argumento é válido quando as premissas (o que vêm antes de alguma conclusão ou dedução) são verdadeiras e se relacionam adequadamente à conclusão. Desse modo, Aristóteles criou o primeiro estudo formal do raciocínio.
Ao aplicar a matemática na lógica, idéia desenvolvida no opúsculo (pequena obra) "The Mathematics Analysis of Logic", Boole deu origem à Algebra de Boole. A essência do método booleano consiste na aplicação de símbolos às operações lógicas. Mediante a manipulação deles, seguindo mecanismos similares aos da álgebra, é possível extrair conclusões das premissas iniciais.
Entre a filosofia e a matemática, Frege foi o principal criador da lógica matemática moderna, sendo considerado, ao lado de Aristóteles, o maior lógico de todos os tempos. O que contribuiu para sua revolução foi a criação de um sistema de representação simbólica (Begriffsschrift, conceitografia ou ideografia) para representar em símbolos (As expressões "para todo o x", "existe um x", que denotam operações de quantificação sobre variáveis têm na obra de Frege uma de suas origens) a estrutura dos enunciados lógicos e suas relações, e ter contribuído para a implementação do cálculo dos predicados, cujo se desenvolve da decomposição funcional da estrutura interna das frases (em parte substituindo a velha dicotomia sujeito-predicado, herdada da tradição lógica Aristotélica, pela oposição matemática função-argumento) e da articulação do conceito de quantificação (implícito na lógica clássica da generalidade), tornado assim possível a sua manipulação em regras de dedução formal.
Fontes:
http://pt.wikipedia.org/wiki/Lógica
http://pt.wikipedia.org/wiki/George_Boole
http://pt.wikipedia.org/wiki/%C3%81lgebra_booleana
http://pt.wikipedia.org/wiki/Gottlob_Frege
domingo, 22 de março de 2009
Ligação do Curso de Ciência da Computação com a UFS
Inaugurando o blog e também a entarda na UFS vou expor o que houve nessa primeira impressão passada pela professora Leila, que na sua palestra apresentou o que é a UFS para nós estudantes de Ciência da Computação. Relatou que a UFS como Instituição de Ensino Superior, é dividida em várias entidades, das quais citamos primeiramente:
- Reitoria - o órgão executivo máximo na Universidade;
- Pró-Reitorias - apoiam em áreas específicas o Reitor
Dentre todas as pró-reitorias, a que temos maior ligação é a Pró-Reitoria de Graduação, PROGRAD, que está ligada aos cursos de Graduação em geral. Estão ligados à ela o CCV, que se encarrega de orientar a vida do pré-universitário, o DAA, que após a entrada na UFS, é onde o aluno busca informações relacionadas à sua vida acadêmica.
Há também os Centros, subordinados à reitoria, os quais temos relação direta com o Centro de Ciências Exatas e Tecnologia, o CCET. No mesmo, há vários departamentos. Dentre eles:
O DCOMP(Departamento de Computação) - o nosso departamento, que antes era o DCCE(Departamento de Ciência da Computação e Estatística), se constitui da coordenadoria, da sala dos professores, dos laboratórios usados no curso de Ciência da Computação e de seus respectivos técnicos. É nele que estão a maioria dos professores que ministram disciplinas do nosso curso, já que temos aulas ligadas à matemática (DMAT) e à fisica (DFI), porém é só no início do curso. Ainda no CCET temos:
- O Calicomp (Centro Acadêmico Livre de Coputação) - representa nós, alunos do DCOMP em reuniões, congressos, encontros, dentre outros; promove nossos interesses acadêmicos, sociais, econômicos, políticos, éticos, e dos professores; e representa-nos junto aos órgãos colegiados da UFS.
- A Softeam (Software Team) - a empresa júnior, composta dos alunos de Ciência da Computação), que promove uma experiência de mercado a nós, desenvolvem o empreendorismo que o curso pode oferecer.
Além deles, há órgãos complementares:
O DCE - entidade que representa todos os estudantes, onde atua no que diz respeito aos interesses dos estudantes perante à administração da universidade, às questões política educacional e nacional.
E a BICEN(Biblioteca Central).
Há um ponto que os profissionais da área de Computação em relação aos outros têm diferencial, é a não regulamentação. Mas, existe a Sociedade Brasileira de Computação (SBC), que está colocando em pauta e defendendo alguns pontos, que definem o profissional da computação na atual sociedade.
- Reitoria - o órgão executivo máximo na Universidade;
- Pró-Reitorias - apoiam em áreas específicas o Reitor
Dentre todas as pró-reitorias, a que temos maior ligação é a Pró-Reitoria de Graduação, PROGRAD, que está ligada aos cursos de Graduação em geral. Estão ligados à ela o CCV, que se encarrega de orientar a vida do pré-universitário, o DAA, que após a entrada na UFS, é onde o aluno busca informações relacionadas à sua vida acadêmica.
Há também os Centros, subordinados à reitoria, os quais temos relação direta com o Centro de Ciências Exatas e Tecnologia, o CCET. No mesmo, há vários departamentos. Dentre eles:
O DCOMP(Departamento de Computação) - o nosso departamento, que antes era o DCCE(Departamento de Ciência da Computação e Estatística), se constitui da coordenadoria, da sala dos professores, dos laboratórios usados no curso de Ciência da Computação e de seus respectivos técnicos. É nele que estão a maioria dos professores que ministram disciplinas do nosso curso, já que temos aulas ligadas à matemática (DMAT) e à fisica (DFI), porém é só no início do curso. Ainda no CCET temos:
- O Calicomp (Centro Acadêmico Livre de Coputação) - representa nós, alunos do DCOMP em reuniões, congressos, encontros, dentre outros; promove nossos interesses acadêmicos, sociais, econômicos, políticos, éticos, e dos professores; e representa-nos junto aos órgãos colegiados da UFS.
- A Softeam (Software Team) - a empresa júnior, composta dos alunos de Ciência da Computação), que promove uma experiência de mercado a nós, desenvolvem o empreendorismo que o curso pode oferecer.
Além deles, há órgãos complementares:
O DCE - entidade que representa todos os estudantes, onde atua no que diz respeito aos interesses dos estudantes perante à administração da universidade, às questões política educacional e nacional.
E a BICEN(Biblioteca Central).
Há um ponto que os profissionais da área de Computação em relação aos outros têm diferencial, é a não regulamentação. Mas, existe a Sociedade Brasileira de Computação (SBC), que está colocando em pauta e defendendo alguns pontos, que definem o profissional da computação na atual sociedade.
Assinar:
Postagens (Atom)